Guía de administración de Load Balancer para IPv4

WebSphere Edge Components
Guía de administración de Load Balancer para IPv4

Versión 7.0


Nota

Antes de utilizar esta información y el producto al que da soporte, asegúrese de leer la información general del Apéndice E, Avisos.

Primera edición (junio 2008)

Esta edición se aplica a:

WebSphere Edge Components, Versión 7.0

y a todos los releases y modificaciones posteriores hasta que se indique lo contrario en nuevas ediciones.

Puede solicitar publicaciones a través del representante de IBM o a través de la sucursal de IBM que presta servicio en su localidad.

(C) Copyright International Business Machines Corporation 2008. Reservados todos los derechos.
Derechos Restringidos para los Usuarios del Gobierno de los EE.UU.: el uso, la duplicación y la divulgación están limitados de acuerdo con el contrato GSA ADP Schedule Contract con IBM Corporation.


Guía de administración de Load Balancer para IPv4

  • Tablas

  • Figuras

  • Acerca de este manual
  • A quién va dirigido este manual
  • Información de consulta
  • Accesibilidad
  • ¿Cómo enviar sus comentarios?
  • Documentos relacionados y sitios web

  • Introducción al Load Balancer

  • Visión general del Load Balancer
  • Descripción de Load Balancer
  • ¿Qué componentes de Load Balancer puedo utilizar?
  • Ventajas de utilizar Load Balancer
  • Cómo Load Balancer puede proporcionar alta disponibilidad
  • Dispatcher
  • CBR
  • Cisco CSS Controller o Nortel Alteon Controller
  • Visión general de los componentes de Load Balancer
  • Componentes de Load Balancer
  • Visión general del componente Dispatcher
  • Gestión de servidores locales con Dispatcher
  • Gestión de servidores que utilizan Dispatcher y Metric Server
  • Gestión de servidores locales y remotos con Dispatcher
  • Visión general del componente CBR (Content Based Routing)
  • Gestión de servidores locales con CBR
  • Visión general del componente Site Selector
  • Gestión de servidores locales y remotos con Site Selector y Metric Server
  • Visión general del componente Cisco CSS Controller
  • Visión general del componente Nortel Alteon Controller
  • Gestión de la red: determinación de las características de Load Balancer que se van a utilizar
  • Funciones de gestor, asesores y Metric Server (para los componentes Dispatcher, CBR y Site Selector)
  • Características del componente Dispatcher
  • Administración remota
  • Ubicación compartida
  • Alta disponibilidad
  • Afinidad del cliente con el servidor
  • Equilibrio de carga basado en reglas
  • Direccionamiento basado en contenido con el método de reenvío cbr de Dispatcher
  • Equilibrio de carga de área amplia
  • Correlación de puertos
  • Configuración de Dispatcher en una red privada
  • Clúster comodín y puerto comodín
  • Detección de ataques para "rechazo de servicio"
  • Anotaciones en binario
  • Alertas
  • Características del componente CBR (Content Based Routing)
  • Comparación entre el método de reenvío cbr de componente CBR y de componente Dispatcher
  • Administración remota
  • Ubicación compartida
  • CBR con varias instancias de Caching Proxy
  • Provisión de direccionamiento basado en contenido para conexiones SSL
  • Creación de particiones del servidor
  • Equilibrio de carga basado en reglas
  • Afinidad del cliente con el servidor
  • Alta disponibilidad con Dispatcher y CBR
  • Anotaciones en binario
  • Alertas
  • Características del componente Site Selector
  • Administración remota
  • Ubicación compartida
  • Alta disponibilidad
  • Afinidad del cliente con el servidor
  • Equilibrio de carga basado en reglas
  • Equilibrio de carga de área amplia
  • Alertas
  • Características del componente Cisco CSS Controller
  • Administración remota
  • Ubicación compartida
  • Alta disponibilidad
  • Anotaciones en binario
  • Alertas
  • Características del componente Nortel Alteon Controller
  • Administración remota
  • Ubicación compartida
  • Alta disponibilidad
  • Anotaciones en binario
  • Alertas
  • Instalación de Load Balancer
  • Requisitos del sistema AIX e instalación
  • Requisitos para sistemas AIX
  • Instalación para sistemas AIX
  • Antes de instalar
  • Pasos de instalación
  • Requisitos del sistema HP-UX e instalación
  • Requisitos para sistemas HP-UX
  • Instalación para sistemas HP-UX
  • Antes de instalar
  • Pasos de instalación
  • Requisitos del sistema Linux e instalación
  • Requisitos para sistemas Linux
  • Instalación para sistemas Linux
  • Antes de instalar
  • Pasos de instalación
  • Requisitos del sistema Solaris e instalación
  • Requisitos para Solaris
  • Instalación para Solaris
  • Antes de instalar
  • Pasos de instalación
  • Requisitos del sistema Windows e instalación
  • Requisitos para sistemas Windows
  • Instalación para sistemas Windows
  • Antes de instalar
  • Pasos de instalación
  • Actualización de Load Balancer
  • Actualización de Load Balancer para sistemas operativos AIX, HP-UX, Linux y Solaris
  • Desinstalación de versiones anteriores de Load Balancer
  • Instalación del paquete de renovación o del fixpack de Load Balancer
  • Actualización de Load Balancer para sistemas operativos Windows
  • Rechazo de una actualización

  • Componente Dispatcher

  • Configuración de inicio rápido
  • Qué necesita
  • Preparativos
  • Configuración del componente Dispatcher
  • Configuración con la línea de mandatos
  • Comprobación de la configuración
  • Configuración con la interfaz gráfica de usuario (GUI)
  • Asistente de configuración
  • Tipos de configuraciones de clúster, puerto y servidor
  • Planificación para Dispatcher
  • Consideraciones de planificación
  • Métodos de reenvío
  • Direccionamiento a nivel de MAC de Dispatcher (método de reenvío mac)
  • NAT/NAPT de Dispatcher (método de reenvío nat)
  • Direccionamiento basado en contenido de Dispatcher (método de reenvío cbr)
  • Pasos de ejemplo para configurar los métodos de reenvío nat o cbr de Dispatcher
  • Creación de particiones del servidor: servidores lógicos configurados con un servidor físico (dirección IP)
  • Creación de particiones del servidor con asesores HTTP o HTTPS
  • Ejemplo para configurar un servidor físico en servidores lógicos
  • Alta disponibilidad
  • Alta disponibilidad sencilla
  • Alta disponibilidad mutua
  • Configuración de Dispatcher
  • Visión general de las tareas de configuración
  • Métodos de configuración
  • Línea de mandatos
  • Scripts
  • GUI
  • Configuración con el asistente de configuración
  • Configuración de la máquina Dispatcher
  • Paso 1. Iniciar la función de servidor
  • Paso 2. Iniciar la función de ejecutor
  • Paso 3. Definir la dirección de no reenvío (si es distinta del nombre de host)
  • Paso 4. Definir un clúster y establecer opciones de clúster
  • Paso 5. Crear un alias para la tarjeta de interfaz de red
  • Paso 6. Definir puertos y establecer opciones de puertos
  • Paso 7. Definir máquinas servidor con equilibrio de carga
  • Paso 8. Iniciar la función de gestor (opcional)
  • Paso 9. Iniciar la función de asesor (opcional)
  • Paso 10. Definir las proporciones del clúster según sea necesario
  • Configuración de máquinas de servidor para el equilibrio de carga
  • Paso 1. Crear un alias para el dispositivo de bucle de retorno
  • Paso 2. Comprobar si hay una ruta adicional
  • Paso 3. Suprimir todas las rutas adicionales
  • Paso 4. Verificar que el servidor esté configurado correctamente
  • Alternativas de alias de bucle de retorno de Linux cuando se utiliza el reenvío MAC de Load Balancer

  • Componente CBR (Content Based Routing)

  • Configuración de inicio rápido
  • Qué necesita
  • Preparativos
  • Configuración del componente CBR
  • Configuración con la línea de mandatos
  • Comprobación de la configuración
  • Configuración con la interfaz gráfica de usuario (GUI)
  • Configuración con el asistente de configuración
  • Tipos de configuraciones de clúster, puerto y servidor
  • Planificación de CBR (Content Based Routing)
  • Consideraciones de planificación
  • Peticiones de equilibrio de carga para distintos tipos de contenido
  • División del contenido del sitio para obtener un mejor tiempo de respuesta
  • Provisión de una copia de seguridad del contenido del servidor web
  • Utilización de varios procesos Caching Proxy para mejorar la utilización de la CPU
  • Utilización de equilibrio de carga basado en reglas con CBR
  • Equilibrio de carga entre conexiones completamente seguras (SSL)
  • Equilibrio de carga de cliente a proxy en SSL y de proxy a servidor en HTTP
  • Configuración de CBR (Content Based Routing)
  • Visión general de las tareas de configuración
  • Métodos de configuración
  • Línea de mandatos
  • Scripts
  • GUI
  • Asistente de configuración
  • Configuración de la máquina CBR
  • Paso 1. Configurar Caching Proxy para que pueda utilizar CBR
  • Paso 2. Iniciar la función de servidor
  • Paso 3. Iniciar la función de ejecutor
  • Paso 4. Definir un clúster y establecer opciones de clúster
  • Paso 5. Crear un alias para la tarjeta de interfaz de red (opcional)
  • Paso 6. Definir puertos y establecer opciones de puertos
  • Paso 7. Definir máquinas servidor con equilibrio de carga
  • Paso 8. Añadir reglas a la configuración
  • Paso 9. Añadir servidores a las reglas
  • Paso 10. Iniciar la función de gestor (opcional)
  • Paso 11. Iniciar la función de asesor (opcional)
  • Paso 12. Definir las proporciones del clúster según sea necesario
  • Paso 13. Iniciar Caching Proxy
  • Ejemplo de configuración CBR

  • Componente Site Selector

  • Configuración de inicio rápido
  • Qué necesita
  • Preparativos
  • Configuración del componente Site Selector
  • Configuración con la línea de mandatos
  • Comprobación de la configuración
  • Configuración con la interfaz gráfica de usuario (GUI)
  • Configuración con el asistente de configuración
  • Planificación para Site Selector
  • Consideraciones de planificación
  • Consideraciones de TTL
  • Utilización de la característica proximidad de red
  • Configuración de Site Selector
  • Visión general de las tareas de configuración
  • Métodos de configuración
  • Línea de mandatos
  • Scripts
  • GUI
  • Asistente de configuración
  • Configuración de la máquina Site Selector
  • Paso 1. Iniciar la función de servidor
  • Paso 2. Iniciar el servidor de nombres
  • Paso 3. Definir un nombre de sitio y establecer las opciones de nombre de sitio
  • Paso 4. Definir máquinas servidor con equilibrio de carga
  • Paso 5. Iniciar la función de gestor (opcional)
  • Paso 6. Iniciar la función de asesor (opcional)
  • Paso 7. Definir la métrica del sistema (opcional)
  • Paso 8. Definir las proporciones del nombre de sitio según sea necesario
  • Configuración de máquinas de servidor para el equilibrio de carga

  • Componente Cisco CSS Controller

  • Configuración de inicio rápido
  • Qué necesita
  • Preparativos
  • Configuración del componente Cisco CSS Controller
  • Configuración con la línea de mandatos
  • Comprobación de la configuración
  • Configuración con la interfaz gráfica de usuario (GUI)
  • Planificación para Cisco CSS Controller
  • Requisitos del sistema
  • Consideraciones de planificación
  • Colocación del consultor en la red
  • Alta disponibilidad
  • Cálculo de pesos
  • Determinación de problemas
  • Configuración de Cisco CSS Controller
  • Visión general de las tareas de configuración
  • Métodos de configuración
  • Línea de mandatos
  • XML
  • GUI
  • Configuración del controlador para la máquina Conmutadores Cisco CSS
  • Paso 1. Iniciar la función de servidor
  • Paso 2. Iniciar la interfaz de línea de mandatos
  • Paso 3. Configurar el consultor
  • Paso 3. Configurar un contenido de propietario
  • Paso 4. Verificar que los servicios están definidos correctamente
  • Paso 5. Configurar métrica
  • Paso 6. Iniciar el consultor
  • Paso 7. Iniciar Metric Server (opcional)
  • Paso 8. Configurar alta disponibilidad (opcional)
  • Comprobación de la configuración

  • Componente Nortel Alteon Controller

  • Configuración de inicio rápido
  • Qué necesita
  • Preparativos
  • Configuración del componente Nortel Alteon Controller
  • Configuración con la línea de mandatos
  • Comprobación de la configuración
  • Configuración con la interfaz gráfica de usuario (GUI)
  • Planificación para Nortel Alteon Controller
  • Requisitos del sistema
  • Consideraciones de planificación
  • Colocación del consultor en la red
  • Atributos de servidor en el conmutador (establecidos por el controlador)
  • Configuración de servidores de reserva
  • Configuración de grupos
  • Alta disponibilidad
  • Ajuste
  • Determinación de problemas
  • Configuración de Nortel Alteon Controller
  • Visión general de las tareas de configuración
  • Métodos de configuración
  • Línea de mandatos
  • XML
  • GUI
  • Configuración de Nortel Alteon Controller
  • Paso 1. Iniciar la función de servidor
  • Paso 2. Iniciar la interfaz de línea de mandatos
  • Paso 3. Definir un consultor del conmutador Nortel Alteon Web
  • Paso 4. Añadir un servicio al consultor de conmutador
  • Paso 5. Configurar métrica
  • Paso 6. Iniciar el consultor
  • Paso 7. Configurar alta disponibilidad (opcional)
  • Paso 8. Iniciar Metric Server (opcional)
  • Paso 9. Renovar la configuración de Nortel Alteon Controller
  • Comprobación de la configuración

  • Funciones y características avanzadas de Load Balancer

  • Funciones del gestor, asesores y Metric Server para Dispatcher, CBR y Site Selector
  • Optimización del equilibrio de carga que proporciona Load Balancer
  • Proporción de la importancia otorgada a la información de estado
  • Pesos
  • Intervalos del gestor
  • Umbral de sensibilidad
  • Índice de suavizado
  • Utilización de scripts para generar una alerta o anotar anomalías en el servidor
  • Asesores
  • Cómo funcionan los asesores
  • Inicio y detención de un asesor
  • Intervalos de asesor
  • Tiempo de espera de informe del asesor
  • Tiempo de espera de conexión y recepción del asesor para los servidores
  • Reintento del asesor
  • Lista de asesores
  • Configuración del asesor HTTP o HTTPS utilizando la opción de petición y respuesta (URL)
  • Utilización del asesor automático en una configuración WAN de dos niveles
  • Crear asesores personalizados (personalizables)
  • Asesor WAS
  • Convenio de denominación
  • Compilación
  • Ejecución
  • Rutinas necesarias
  • Orden de búsqueda
  • Denominación y vía de acceso
  • Asesor de ejemplo
  • Metric Server
  • Restricción para WLM
  • Requisitos previos
  • Cómo utilizar Metric Server
  • Asesor del gestor de carga de trabajo
  • Restricción para Metric Server
  • Características avanzadas para Dispatcher, CBR y Site Selector
  • Utilización de servidores con ubicación compartida
  • para el componente Dispatcher
  • para el componente CBR
  • para el componente Site Selector
  • Alta disponibilidad
  • Configurar la alta disponibilidad
  • Capacidad de detección de anomalías utilizando pulsos y destino de alcance
  • Estrategia de recuperación
  • Utilización de scripts
  • Configurar la ubicación compartida y la alta disponibilidad (sistemas Windows)
  • Configuración del equilibrio de carga basado en reglas
  • ¿Cómo se evalúan las reglas?
  • Utilización de reglas basadas en la dirección IP de cliente
  • Utilización de reglas basadas en el puerto de cliente
  • Utilización de reglas basadas en la hora del día
  • Utilización de reglas basadas en el tipo de servicio (TOS)
  • Utilización de reglas basadas en las conexiones por segundo
  • Utilización de reglas basadas en el total de conexiones activas
  • Utilización de reglas basadas en ancho de banda reservado y ancho de banda compartido
  • Regla de toda la métrica
  • Regla de media de la métrica
  • Utilización de reglas que son siempre ciertas
  • Utilización de reglas basadas en el contenido de peticiones
  • Alteración temporal de la afinidad entre puertos
  • Adición de reglas a la configuración
  • Opción de evaluación del servidor para reglas
  • Cómo funciona la característica de afinidad para Load Balancer
  • Comportamiento cuando la afinidad está inhabilitada
  • Comportamiento cuando la afinidad está habilitada
  • Afinidad entre puertos
  • Máscara de dirección de afinidad (stickymask)
  • Desactivar temporalmente el manejo de conexiones de servidor
  • Opción de afinidad de la regla basada en el contenido de la petición de cliente
  • Afinidad de cookies activos
  • Afinidad de cookies pasivos
  • Afinidad de URI
  • Configurar soporte de Dispatcher de área amplia
  • Sintaxis de mandatos
  • Utilización de asesores remotos con el soporte de área amplia de Dispatcher
  • Ejemplo de configuración
  • Soporte de GRE (Encapsulamiento genérico de direccionamiento)
  • Utilización del enlace explícito
  • Utilización de una configuración de red privada
  • Utilizar un clúster comodín para combinar configuraciones de servidores
  • Utilizar un clúster comodín para equilibrar la carga de cortafuegos
  • Utilizar el clúster comodín con Caching Proxy para un proxy transparente
  • Utilizar el puerto comodín para dirigir el tráfico de puerto no configurado
  • Puerto comodín para manejar el tráfico FTP
  • Detección de ataques para rechazo de servicio (DoS)
  • Utilización del registro cronológico binario para analizar estadísticas de servidor
  • Utilización de un cliente con ubicación compartida
  • Características avanzadas de Cisco CSS Controller y Nortel Alteon Controller
  • Ubicación compartida
  • Alta disponibilidad
  • Configuración
  • Detección de anomalías
  • Estrategia de recuperación
  • Ejemplos
  • Optimización del equilibrio de carga que proporciona Load Balancer
  • Importancia dada a la información métrica
  • Pesos
  • Tiempos de inactividad en el cálculo de pesos
  • Umbral de sensibilidad
  • Asesores
  • Cómo funcionan los asesores
  • Tiempos de inactividad del asesor
  • Tiempo de espera de conexión y recepción del asesor para los servidores
  • Reintento del asesor
  • Crear asesores personalizados (personalizables)
  • Convenio de denominación
  • Compilación
  • Ejecución
  • Rutinas necesarias
  • Orden de búsqueda
  • Denominación y vía de acceso
  • Asesor de ejemplo
  • Metric Server
  • Requisitos previos
  • Cómo utilizar Metric Server
  • Asesor del gestor de carga de trabajo
  • Utilización del registro cronológico binario para analizar estadísticas de servidor
  • Utilización de scripts para generar una alerta o anotar anomalías en el servidor

  • Administración y resolución de problemas de Load Balancer

  • Funcionamiento y gestión de Load Balancer
  • Administración remota de Load Balancer
  • RMI (Remote Method Invocation)
  • Administración basada en la web
  • Utilización de los registros de Load Balancer
  • Para Dispatcher, CBR y Site Selector
  • Para Cisco CSS Controller y Nortel Alteon Controller
  • Utilización del componente Dispatcher
  • Inicio y detención de Dispatcher
  • Utilización del valor de tiempo de espera sin actividad
  • Utilización del tiempo de espera de conexiones finalizadas y del tiempo de espera sin actividad con el fin de controlar la limpieza de registros de conexión
  • GUI de informe -- Opción de menú Supervisar
  • Utilización de Simple Network Management Protocol con el componente Dispatcher
  • Utilización de ipchains o tablas ip para rechazar todo el tráfico con el fin de proteger la máquina de Load Balancer (sistemas Linux)
  • Utilización del componente CBR (Content Based Routing)
  • Inicio y detención de CBR
  • Control de CBR
  • Utilización de archivos de anotaciones cronológicas de CBR
  • Utilización del componente Site Selector
  • Inicio y detención de Site Selector
  • Control de Site Selector
  • Utilización de archivos de anotaciones cronológicas de Site Selector
  • Utilización del componente Cisco CSS Controller
  • Inicio y detención de Cisco CSS Controller
  • Control de Cisco CSS Controller
  • Utilización de de archivos de anotaciones cronológicas de Cisco CSS Controller
  • Utilización del componente Nortel Alteon Controller
  • Inicio y detención de Nortel Alteon Controller
  • Control de Nortel Alteon Controller
  • Utilización de de archivos de anotaciones cronológicas de Nortel Alteon Controller
  • Utilización del componente Metric Server
  • Inicio y detención de Metric Server
  • Utilización de archivos de anotaciones cronológicas de Metric Server
  • Resolución de problemas
  • Recopilación de información para la resolución de problemas
  • Información general (siempre es necesaria)
  • Problemas de alta disponibilidad (HA)
  • Problemas del asesor
  • Problemas de CBR (Content Based Routing)
  • No se puede acceder al clúster
  • Todo lo demás no funciona
  • Actualizaciones
  • Código Java
  • Enlaces de utilidad
  • Tablas de resolución de problemas
  • Comprobación de los números de puerto de Dispatcher
  • Comprobación de los números de puerto de CBR
  • Comprobación de los números de puerto de Site Selector
  • Comprobación de los números de puerto de Cisco CSS Controller
  • Comprobación de los números de puerto de Nortel Alteon Controller
  • Resolución de problemas comunes--Dispatcher
  • Problema: no se ejecutará Dispatcher
  • Problema: no responderán Dispatcher y el servidor
  • Problema: no se equilibran las peticiones de Dispatcher
  • Problema: la función de alta disponibilidad de Dispatcher no funciona
  • Problema: no se han podido añadir pulsos (plataforma Windows)
  • Problema: rutas adicionales (Windows 2000)
  • Problema: los asesores no funcionan correctamente
  • Problema: Dispatcher, Microsoft IIS y SSL no funcionan (plataforma Windows)
  • Problema: conexión de Dispatcher con una máquina remota
  • Problema: el mandato dscontrol o lbadmin da un error
  • Problema: aparece el mensaje de error "No se puede encontrar el archivo..." al intentar consultar la ayuda en línea (plataforma Windows)
  • Problema: la GUI (interfaz gráfica de usuario) no se inicia correctamente
  • Problema: error al ejecutar Dispatcher con Caching Proxy instalado
  • Problema: la GUI (interfaz gráfica de usuario) no se muestra correctamente
  • Problema: en la plataforma Windows, las ventanas de ayuda a veces desaparecen detrás de otras ventanas abiertas
  • Problema: Load Balancer no puede procesar y reenviar una trama
  • Problema: se muestra una pantalla azul cuando se inicia el ejecutor de Load Balancer
  • Problema: la vía de acceso al descubrimiento impide el tráfico de retorno con Load Balancer
  • Problema: no funciona la alta disponibilidad en la modalidad de área amplia de Load Balancer
  • Problema: se cierra la comunicación de la GUI (o tiene un comportamiento inesperado) cuando se intenta cargar un archivo de configuración de gran tamaño
  • Problema: lbadmin realiza una desconexión del servidor después de actualizar la configuración
  • Problema: las direcciones IP no se resuelven correctamente en la conexión remota
  • Problema: la interfaz de Load Balancer coreana muestra fonts solapados o no deseados en sistemas AIX y Linux
  • Problema: en sistemas Windows, se devuelve una dirección del alias en lugar de la dirección local cuando se emiten mandatos como hostname
  • Problema: en la plataforma Windows, se produce un comportamiento de la GUI inesperado al utilizar tarjetas de vídeo Matrox AGP
  • Problema: comportamiento inesperado al ejecutar "rmmod ibmlb" (sistemas Linux)
  • Problema: tiempo de respuesta lento cuando se ejecutan mandatos en la máquina de Dispatcher
  • Problema: el asesor SSL o HTTPS no registra cargas del servidor (cuando se utiliza el reenvío mac)
  • Problema: se produce una desconexión del host si se cambia el tamaño de la ventana del navegador Netscape cuando se utiliza la administración Web
  • Problema: está habilitada la agrupación de sockets y el servidor Web se enlaza a 0.0.0.0
  • Problema: en sistemas Windows, aparecen caracteres nacionales Latin-1 dañados en la ventana de indicador de mandatos
  • Problema: en HP-UX, se produce un error de falta de memoria/hebra de Java
  • Problema: en los sistemas Windows, los asesores y los destinos de alcance marcan como inactivos todos los servidores
  • Problema: en la plataforma Windows, se resuelve la dirección IP con el nombre de host cuando se ha configurado más de una dirección con el adaptador
  • Problema: en sistemas Windows, después de una caída de la red, los asesores no funcionan en una configuración de alta disponibilidad
  • Problema: en sistemas Linux, no utilice el mandato "IP address add" cuando cree un alias de varios clústeres en el dispositivo de bucle de retorno
  • Problema: mensaje de error "dirección del direccionador no especificada o no válida para el método del puerto"
  • Problema: en sistemas Solaris, los procesos de Load Balancer finalizan cuando sale de la ventana de terminal desde la que se han iniciado
  • Problema: Se ha producido un retardo al cargar una configuración de Load Balancer
  • Problema: en sistemas Windows, aparece un mensaje de error de conflicto de dirección IP
  • Problema: las dos máquinas, primaria y de reserva, están activas en una configuración de alta disponibilidad
  • Problema: no se pueden realizar las peticiones del cliente cuando el sistema intenta devolver respuestas de páginas de gran tamaño
  • Problema: en sistemas Windows, se produce el error "el servidor no responde" cuando se emite dscontrol o lbadmin
  • Problema: es posible que las máquinas de Dispatcher de alta disponibilidad no se puedan sincronizar en sistemas Linux para S/390 en controladores qeth
  • Problema: sugerencias para configurar la alta disponibilidad
  • Problema: en Linux, limitaciones cuando se utilizan servidores zSeries o S/390 que disponen de tarjetas OSA (Open System Adapter)
  • Problema: en algunas versiones de Linux, se produce una pérdida de memoria al ejecutar Dispatcher configurado con el gestor y los asesores
  • Problema: en SUSE Linux Enterprise Server 9, Dispatcher reenvía paquetes, pero los paquetes no llegan al servidor de programa de fondo
  • Problema: en sistemas Windows, se muestra un mensaje de conflicto de dirección IP durante la toma de control de alta disponibilidad
  • Problema: en sistemas Linux, iptables puede impedir el direccionamiento de paquetes
  • Aparece un mensaje de aviso Java al instalar arreglos de servicio
  • Actualización del conjunto de archivos Java con la instalación de Load Balancer
  • Problema: pueden cerrarse conexiones permanentes durante la toma de control de alta disponibilidad
  • Problema: al instalar WebSphere Edge Server utilizando ./install en el sistema operativo Linux de 32 bits para zSeries se produce un mensaje "JVM no encontrada"
  • Problema: el proceso de desinstalación para WebSphere Edge Server se cierra en sistemas operativos Linux
  • Resolución de problemas comunes--CBR
  • Problema: no se ejecutará CBR
  • Problema: el mandato cbrcontrol o lbadmin da un error
  • Problema: no se equilibra la carga de las peticiones
  • Problema: en sistemas Solaris, el mandato cbrcontrol executor start da un error
  • Problema: error sintáctico o de configuración
  • Problema: en la plataforma Windows, se produce un comportamiento de la GUI inesperado al utilizar tarjetas de vídeo Matrox AGP
  • Problema: se produce una desconexión del host si se cambia el tamaño de la ventana del navegador Netscape cuando se utiliza la administración Web
  • Problema: en plataformas Windows, aparecen caracteres nacionales Latin-1 dañados en la ventana de indicador de mandatos
  • Problema: en HP-UX, se produce un error de falta de memoria/hebra de Java
  • Problema: en los sistemas Windows, los asesores y los destinos de alcance marcan como inactivos todos los servidores
  • Problema: en sistemas Windows, se resuelve la dirección IP con el nombre de host cuando se ha configurado más de una dirección con el adaptador
  • Resolución de problemas comunes--Site Selector
  • Problema: no se ejecutará Site Selector
  • Problema: Site Selector no utiliza el algoritmo de turno rotativo en el tráfico de clientes Solaris
  • Problema: el mandato sscontrol o lbadmin da un error
  • Problema: no se ha podido iniciar ssserver en la plataforma Windows
  • Problema: Site Selector con rutas duplicadas no equilibra la carga correctamente
  • Problema: en la plataforma Windows, se produce un comportamiento de la GUI inesperado al utilizar tarjetas de vídeo Matrox AGP
  • Problema: se produce una desconexión del host si se cambia el tamaño de la ventana del navegador Netscape cuando se utiliza la administración Web
  • Problema: en plataformas Windows, aparecen caracteres nacionales Latin-1 dañados en la ventana de indicador de mandatos
  • Problema: en HP-UX, se produce un error de falta de memoria/hebra de Java
  • Problema: en los sistemas Windows, los asesores y los destinos de alcance marcan como inactivos todos los servidores
  • Resolución de problemas comunes--Cisco CSS Controller
  • Problema: no se iniciará ccoserver
  • Problema: el mandato ccocontrol o lbadmin da un error
  • Problema: no se ha podido crear el registro en el puerto 13099
  • Problema: en la plataforma Windows, se produce un comportamiento de la GUI inesperado al utilizar tarjetas de vídeo Matrox AGP
  • Problema: se ha recibido un error de conexión al añadir un consultor
  • Problema: no se actualizan los pesos en el conmutador
  • Problema: el mandato refresh no ha actualizado la configuración del consultor
  • Problema: se produce una desconexión del host si se cambia el tamaño de la ventana del navegador Netscape cuando se utiliza la administración Web
  • Problema: en plataformas Windows, aparecen caracteres nacionales Latin-1 dañados en la ventana de indicador de mandatos
  • Problema: en HP-UX, se produce un error de falta de memoria/hebra de Java
  • Resolución de problemas comunes--Nortel Alteon Controller
  • Problema: no se iniciará nalserver
  • Problema: el mandato nalcontrol o lbadmin da un error
  • Problema: no se ha podido crear el registro en el puerto 14099
  • Problema: en la plataforma Windows, se produce un comportamiento de la GUI inesperado al utilizar tarjetas de vídeo Matrox AGP
  • Problema: se produce una desconexión del host si se cambia el tamaño de la ventana del navegador Netscape cuando se utiliza la administración Web
  • Problema: se ha recibido un error de conexión al añadir un consultor
  • Problema: no se actualizan los pesos en el conmutador
  • Problema: el mandato refresh no ha actualizado la configuración del consultor
  • Problema: en sistemas Windows, aparecen caracteres nacionales Latin-1 dañados en la ventana de indicador de mandatos
  • Problema: en HP-UX, se produce un error de falta de memoria/hebra de Java
  • Resolución de problemas comunes--Metric Server
  • Problema: IOException de Metric Server en la plataforma Windows al ejecutar archivos de métrica del usuario .bat o .cmd
  • Problema: Metric Server no informa de las cargas en la máquina de Load Balancer
  • Problema: el archivo de anotaciones cronológicas de Metric Server informa de que "Es necesaria la firma para acceder al agente"
  • Problema: en sistemas AIX, cuando se ejecuta Metric Server bajo mucha presión, la salida del mandato ps -vg podría dañarse
  • Problema: configuración de Metric Server en una configuración de dos niveles con el equilibrio de carga de Site Selector entre Dispatchers de alta disponibilidad
  • Problema: los scripts, en ejecución en máquinas Solaris de varias CPU, producen mensajes de consola no deseados
  • Problema: Después de iniciar Metric Server, el valor de métrica devuelve -1

  • Referencia de mandatos

  • Cómo leer un diagrama de sintaxis
  • Símbolos y puntuación
  • Parámetros
  • Ejemplos de sintaxis
  • Referencia de mandatos para Dispatcher y CBR
  • Diferencias de configuración entre CBR y Dispatcher
  • dscontrol advisor -- controlar el asesor
  • dscontrol binlog -- controlar el archivo de anotaciones cronológicas binario
  • dscontrol cluster -- configurar clústeres
  • dscontrol executor -- controlar el ejecutor
  • dscontrol file -- gestionar archivos de configuración
  • dscontrol help -- mostrar o imprimir ayuda para este mandato
  • dscontrol highavailability -- controlar alta disponibilidad
  • dscontrol host -- configurar una máquina remota
  • dscontrol logstatus -- mostrar valores de anotaciones cronológicas de servidor
  • dscontrol manager -- controlar el gestor
  • dscontrol metric -- configurar métrica del sistema
  • dscontrol port -- configurar puertos
  • dscontrol rule -- configurar reglas
  • dscontrol server -- configurar servidores
  • dscontrol set -- configurar anotaciones cronológicas de servidor
  • dscontrol status -- mostrar si el gestor y los asesores se están ejecutando
  • dscontrol subagent -- configurar subagente SNMP
  • Referencia de mandatos para Site Selector
  • sscontrol advisor -- controlar el asesor
  • sscontrol file -- gestionar archivos de configuración
  • sscontrol help -- mostrar o imprimir ayuda para este mandato
  • sscontrol logstatus -- mostrar valores de anotaciones cronológicas de servidor
  • sscontrol manager -- controlar el gestor
  • sscontrol metric -- configurar métrica del sistema
  • sscontrol nameserver -- controlar el servidor de nombres
  • sscontrol rule -- configurar reglas
  • sscontrol server -- configurar servidores
  • sscontrol set -- configurar anotaciones cronológicas de servidor
  • sscontrol sitename -- configurar un nombre de sitio
  • sscontrol status -- mostrar si el gestor y los asesores se están ejecutando
  • Referencia de mandatos para Cisco CSS Controller
  • ccocontrol consultant -- configurar y controlar un consultor
  • ccocontrol controller -- gestionar el controlador
  • ccocontrol file -- gestionar archivos de configuración
  • ccocontrol help -- mostrar o imprimir ayuda para este mandato
  • ccocontrol highavailability -- controlar alta disponibilidad
  • ccocontrol metriccollector -- configurar recopilador de métricas
  • ccocontrol ownercontent -- controlar el nombre de propietario y la regla de contenido
  • ccocontrol service -- configurar un servicio
  • Referencia de mandatos para Nortel Alteon Controller
  • nalcontrol consultant -- configurar y controlar un consultor
  • nalcontrol controller -- gestionar el controlador
  • nalcontrol file -- gestionar archivos de configuración
  • nalcontrol help -- mostrar o imprimir ayuda para este mandato
  • nalcontrol highavailability -- controlar alta disponibilidad
  • nalcontrol metriccollector -- configure metric collector
  • nalcontrol server -- configurar un servidor
  • nalcontrol service -- configurar un servicio

  • Apéndices

  • Apéndice A. GUI: instrucciones generales

  • Apéndice B. Sintaxis de la regla de contenido (patrón)
  • Sintaxis de la regla de contenido (patrón):
  • Palabras clave reservadas
  • Apéndice C. Archivos de configuración de ejemplo
  • Archivos de configuración de ejemplo de Load Balancer
  • Archivo de configuración de Dispatcher -- sistemas AIX, Linux y Solaris
  • Archivo de configuración de Dispatcher -- sistemas Windows
  • Asesor de ejemplo
  • Apéndice D. Ejemplo de configuración de alta disponibilidad de 2 niveles con Dispatcher, CBR y Caching Proxy
  • Configuración de la máquina servidor
  • Apéndice E. Avisos
  • Marcas registradas
  • Glosario

  • Índice

  • Tablas

    1. Imágenes installp de AIX
    2. Mandatos de instalación de AIX
    3. Detalles de instalación de los paquetes de HP-UX para Load Balancer
    4. Mandatos específicos del sistema para desinstalar Load Balancer
    5. Mandatos específicos del sistema para instalar un paquete de renovación o un fixpack
    6. Lista de paquetes
    7. Tareas de configuración para la función Dispatcher
    8. Mandatos para crear alias del dispositivo de bucle de retorno (lo0) para Dispatcher
    9. Mandatos para suprimir todas las rutas adicionales para Dispatcher
    10. Tareas de configuración para el componente CBR
    11. Mandatos para crear alias para la NIC
    12. Tareas de configuración para el componente Site Selector
    13. Tareas de configuración para el componente Cisco CSS Controller
    14. Tareas de configuración para el componente Nortel Alteon Controller
    15. Tareas de configuración avanzada para Load Balancer
    16. Tareas de configuración avanzada para el Load Balancer
    17. Tabla de resolución de problemas de Dispatcher
    18. Tabla de resolución de problemas de CBR
    19. Tabla de resolución de problemas de Site Selector
    20. Tabla de resolución de problemas del controlador para conmutadores Cisco CSS
    21. Tabla de resolución de problemas Nortel Alteon Controller
    22. Tabla de resolución de problemas de Metric Server

    Figuras

    1. Ejemplo de una representación física de un sitio que utiliza Dispatcher para gestionar servidores locales
    2. Ejemplo de un sitio que utiliza Dispatcher y Metric Server para gestionar servidores
    3. Ejemplo de un sitio que utiliza Dispatcher para gestionar servidores locales y remotos
    4. Ejemplo de un sitio que utiliza CBR para gestionar servidores locales
    5. Ejemplo de un sitio que utiliza Site Selector y Metric Server para gestionar servidores locales y remotos
    6. Ejemplo de un sitio que utiliza Cisco CSS Controller y Metric Server para gestionar servicios locales
    7. Ejemplo de un sitio que utiliza Nortel Alteon Controller para gestionar servidores locales
    8. Configuración local sencilla de Dispatcher
    9. Ejemplo de Dispatcher configurado con un solo clúster y 2 puertos
    10. Ejemplo de Dispatcher configurado con dos clústeres, cada uno con un puerto
    11. Ejemplo de Dispatcher configurado con 2 clústeres, cada uno con 2 puertos
    12. Ejemplo de utilización de los métodos de reenvío nat o cbr de Dispatcher
    13. Ejemplo de Dispatcher con alta disponibilidad sencilla
    14. Ejemplo de Dispatcher con alta disponibilidad mutua
    15. Ejemplo de las direcciones IP necesarias para la máquina Dispatcher
    16. Configuración local sencilla de CBR
    17. Ejemplo de CBR configurado con un solo clúster y 2 puertos
    18. Ejemplo de CBR configurado con dos clústeres, cada uno con un puerto
    19. Ejemplo de CBR configurado con 2 clústeres, cada uno con 2 puertos
    20. Archivo de configuración de CBR para sistemas AIX, Linux y Solaris
    21. Archivo de configuración de CBR para sistemas HP-UX
    22. Archivo de configuración de CBR para sistemas Windows
    23. Configuración sencilla de Site Selector
    24. Ejemplo de un entorno DNS
    25. Configuración sencilla de Cisco CSS Controller
    26. Ejemplo de un consultor conectado detrás de los conmutadores
    27. Ejemplo de consultor (con el asociado de alta disponibilidad opcional), configurado detrás del conmutador con la interfaz de usuario delante del conmutador
    28. Configuración sencilla de Nortel Alteon Controller
    29. Ejemplo de un consultor conectado detrás del conmutador
    30. Ejemplo de consultor conectado mediante una intranet delante de un conmutador
    31. Ejemplo de consultor detrás del conmutador e interfaz de usuario delante del conmutador
    32. Ejemplo de consultor configurado con servidores de reserva
    33. Ejemplo de alta disponibilidad de Nortel Alteon Controller y del conmutador de Nortel Alteon Web
    34. Ejemplo de una configuración WAN de dos niveles que utiliza el asesor automático
    35. Ejemplo de una configuración que consta de un único segmento LAN
    36. Ejemplo de configuración mediante servidores locales y remotos
    37. Configuración del ejemplo de área amplia con varios Load Balancer remotos
    38. Configuración del ejemplo de área amplia con una plataforma de servidor que da soporte a GRE
    39. Ejemplo de una red privada que utiliza Dispatcher
    40. Mandatos SNMP para sistemas Linux y UNIX
    41. La interfaz gráfica de usuario (GUI) que muestra la expansión de la estructura de árbol de la GUI del componente Dispatcher.
    42. La interfaz gráfica de usuario (GUI) que muestra la expansión de la estructura de árbol de la GUI del componente CBR.
    43. La interfaz gráfica de usuario (GUI) que muestra la expansión de la estructura de árbol de la GUI del componente Site Selector.
    44. La interfaz gráfica de usuario (GUI) que muestra la expansión de la estructura de árbol de la GUI del componente Cisco CSS Controller.
    45. La interfaz gráfica de usuario (GUI) que muestra la expansión de la estructura de árbol de la GUI del componente Nortel Alteon Controller.
    46. Ejemplo de configuración de alta disponibilidad de 2 niveles con Dispatcher, CBR y Caching Proxy

    Acerca de este manual

    En este manual se describe cómo planificar la instalación, configuración, utilización y la resolución de problemas del Load Balancer de IBM(R) WebSphere(R) Application Server para sistemas operativos AIX(R), HP-UX, Linux(TM), Solaris y Windows(R). Anteriormente, este producto se llamaba Edge Server Network Dispatcher, SecureWay(R) Network Dispatcher, eNetwork Dispatcher e Interactive Network Dispatcher.


    A quién va dirigido este manual

    El manual Guía de administración de Load Balancer se ha escrito para aquellos administradores de red y de sistemas expertos que estén familiarizados con sus sistemas operativos y con el suministro de servicios de Internet. No es necesario tener conocimientos previos de Load Balancer.

    Este manual no está concebido para dar soporte a varios releases de Load Balancer.


    Información de consulta

    El sitio Web del Information Center de Edge Components tiene un enlace a la versión actual de este manual en formatos HTML y PDF.

    Para obtener las actualizaciones más recientes sobre Load Balancer, visite la página de soporte del sitio Web y pulse el enlace correspondiente al sitio de notas técnicas.

    Para acceder a estas páginas Web y las páginas relacionadas, vaya a las direcciones URL enumeradas en Documentos relacionados y sitios web.


    Accesibilidad

    Las características de accesibilidad ayudan al usuario que tiene discapacidades físicas, como por ejemplo una movilidad restringida o una visión limitada, a utilizar satisfactoriamente los productos de software. Éstas son las principales características de accesibilidad en Load Balancer:


    ¿Cómo enviar sus comentarios?

    Sus comentarios son importantes para ayudarnos a proporcionar la información más precisa y de la mayor calidad posible. Para enviar comentarios sobre este manual o sobre cualquier otro documento de Edge Components:


    Documentos relacionados y sitios Web


    Introducción al Load Balancer

    En esta parte se proporciona una visión general de Load Balancer y sus componentes, una descripción de alto nivel de características de configuración que están disponibles, una lista de requisitos de hardware y software e instrucciones de instalación. Contiene los capítulos siguientes:


    Visión general de Load Balancer

    En este capítulo se ofrece una visión general de Load Balancer y se incluyen los siguientes apartados:

    Si desea una lista de alto nivel de las características de configuración proporcionadas por cada uno de los componentes de Load Balancer que le ayudará a planificar qué características utilizar para gestionar la red, consulte el apartado Gestión de la red: determinación de las características de Load Balancer que se van a utilizar.


    Descripción de Load Balancer

    Load Balancer es una solución de software para distribuir peticiones de cliente entrantes entre servidores. Esta solución aumenta el rendimiento de los servidores dirigiendo las peticiones de la sesión TCP/IP a servidores distintos dentro de un grupo de servidores; de este modo, se equilibran las peticiones entre todos los servidores. Este equilibrio de carga es transparente a los usuarios y otras aplicaciones. Load Balancer resulta de utilidad para aplicaciones como servidores de correo electrónico, servidores de la World Wide Web, consultas de base de datos paralelo distribuidas y otras aplicaciones TCP/IP.

    Cuando se utiliza Load Balancer con servidores Web, puede ayudar a maximizar el potencial de su sitio proporcionando una solución completa, flexible y escalable a problemas de intensa demanda. Si los visitantes de su sitio no pueden comunicar en los momentos de mayor demanda, utilice Load Balancer para encontrar automáticamente el servidor óptimo para gestionar las peticiones entrantes, así mejorará la satisfacción de los clientes y la rentabilidad.


    ¿Qué componentes de Load Balancer puedo utilizar?

    Load Balancer consta de los cinco componentes siguientes que se pueden utilizar ya sea por separado o juntos para proporcionar resultados de equilibrio de carga superiores:

    Si desea más información sobre los componentes Dispatcher, CBR, Site Selector, Cisco CSS Controller y Nortel Alteon Controller, consulte el apartado Componentes de Load Balancer.


    Ventajas de utilizar Load Balancer

    El número de usuarios y redes conectado a Internet global aumenta exponencialmente. Este aumento produce problemas de escalabilidad que pueden limitar el acceso de los usuarios a los sitios conocidos.

    Actualmente, los administradores de redes utilizan varios métodos para intentar maximizar el acceso. Con algunos de estos métodos, puede elegir de modo aleatorio un usuario distinto si una selección anterior es lenta o no responde. Este enfoque es engorroso, pesado e ineficaz. Otro método es el algoritmo de turno rotativo estándar, en el que el servidor de nombres de dominio selecciona servidores por turno para gestionar las peticiones. Este enfoque es mejor, pero sigue siendo ineficaz porque envía tráfico sin tener en cuenta la carga de trabajo del servidor. Además, aún cuando el servidor dé un error, se le seguirán enviando las peticiones.

    La necesidad de una solución más completa ha dado como resultado Load Balancer. Esta solución ofrece muchas ventajas sobre las soluciones anteriores y de la competencia:

    Escalabilidad

    A medida que aumenta el número de peticiones de cliente, puede añadir servidores dinámicamente, proporcionando soporte para decenas de millones de peticiones al día, en decenas o incluso centenas de servidores.

    Uso eficaz del equipo

    El equilibrio de carga asegura que cada grupo de servidores hace un uso óptimo del hardware minimizando los puntos conflictivos que suelen aparecer con un método de turno rotativo estándar.

    Integración sencilla

    Load Balancer utiliza protocolos TCP/IP o UDP/IP estándar. Puede añadirlo a la red existente sin realizar ningún cambio físico en la red. Es sencillo de instalar y configurar.

    Menos carga adicional

    Con el método sencillo de reenvío de nivel mac, el componente Dispatcher sólo presta atención a los flujos de cliente a servidor de entrada. No tiene que comprobar los flujos de salida del servidor al cliente. Esto reduce significativamente el impacto en la aplicación comparado con otros enfoques y puede producir un rendimiento de red mejorado.

    Alta disponibilidad

    Los componentes Dispatcher, Cisco CSS Controller y Nortel Alteon Controller ofrecen una alta disponibilidad integrada, utilizando una máquina de reserva que permanece preparada en todo momento para hacerse con el control del equilibrio de carga en caso de que la máquina servidor primaria dé un error. Cuando uno de los servidores da un error, el otro servidor sigue atendiendo las peticiones. Este proceso impide que haya un servidor como único punto de error y hace que el sitio esté altamente disponible.

    Para obtener más información, consulte el apartado Cómo Load Balancer puede proporcionar alta disponibilidad

    Direccionamiento basado en contenido (con el componente CBR o el componente Dispatcher)

    Junto con Caching Proxy, el componente CBR tiene la capacidad de dirigir mediante proxy peticiones HTTP y HTTPS (SSL) a servidores específicos según el contenido solicitado. Por ejemplo, si una petición contiene la serie "/cgi-bin/" en la parte del directorio de la dirección URL y el nombre de servidor es un servidor local, CBR puede dirigir la petición al mejor servidor de un conjunto de servidores específicamente asignados para gestionar peticiones cgi.

    Nota:
    El componente CBR (Content Based Routing) está disponible en todas las plataformas admitidas excepto donde se ejecuta una JVM de 64 bits. De modo alternativo, puede utilizar el método de reenvío cbr del componente Dispatcher de Load Balancer para proporcionar el direccionamiento basado en contenido sin utilizar Caching Proxy. Consulte el apartado Direccionamiento basado en contenido de Dispatcher (método de reenvío cbr) para obtener más información.

    El componente Dispatcher también proporciona direccionamiento basado en contenido, pero no requiere tener instalado Caching Proxy. Dado que el direccionamiento basado en contenido del componente Dispatcher se realiza en el kernel a medida que se reciben los paquetes, puede proporcionar un direccionamiento basado en contenido más rápido que el componente CBR. El componente Dispatcher realiza un direccionamiento basado en contenido para HTTP (con la regla de tipo de "contenido") y HTTPS (con afinidad de ID de sesión SSL).

    Nota:
    Sólo el componente CBR puede utilizar la regla de contenido para HTTPS (SSL) cuando se equilibra la carga de tráfico según el contenido de la petición HTTP, que requiere el descifrado y nuevo cifrado de mensajes.

    Cómo Load Balancer puede proporcionar alta disponibilidad

    Dispatcher

    El componente Dispatcher ofrece una característica de alta disponibilidad integrada, que evita que el Dispatcher sea un único punto de error de la red. Esta característica implica el uso de una segunda máquina Dispatcher que supervisa la máquina principal o, primaria, y está preparada para hacerse con el control del equilibrio de carga en caso de que la máquina primaria dé un error en un momento dado. El componente Dispatcher también ofrece alta disponibilidad mutua que permite que dos máquinas sean a la vez primaria y secundaria (de reserva) entre sí. Consulte el apartado Configurar la alta disponibilidad.

    CBR

    También puede alcanzar un nivel de alta disponibilidad utilizando el componente de CBR cuando se utiliza una configuración de dos niveles con una máquina de Dispatcher que equilibra la carga entre varios servidores que tienen el componente CBR.

    Cisco CSS Controller o Nortel Alteon Controller

    Los controladores tienen una característica de alta disponibilidad para impedir que el controlador sea un único punto de error. Se puede configurar un controlador como primario en una máquina y un controlador de reserva en otra máquina. El de reserva supervisa el primario y está preparado para hacerse con el control de la tarea de proporcionar pesos de servidor a los conmutadores en caso de que el primario dé un error. Consulte el apartado Alta disponibilidad para obtener más información.


    Visión general de los componentes de Load Balancer

    En este capítulo se ofrece una visión general de los componentes de Load Balancer y se incluyen los siguientes apartados:

    Si desea una lista de alto nivel de las características de configuración proporcionadas por cada uno de los componentes de Load Balancer para ayudarle a planificar qué características utilizar para gestionar la red, consulte el apartado Gestión de la red: determinación de las características de Load Balancer que se van a utilizar.


    Componentes de Load Balancer

    Los cinco componentes de Load Balancer son: Dispatcher, Content Based Routing (CBR), Site Selector, Cisco CSS Controller y Nortel Alteon Controller. Load Balancer le ofrece la flexibilidad de utilizar los componentes por separado o juntos en función de la configuración del sitio. En este apartado se proporciona una visión general de estos componentes.


    Visión general del componente Dispatcher

    El componente Dispatcher equilibra el tráfico entre servidores a través de una combinación exclusiva de software de equilibrio de carga y gestión. Dispatcher también puede detectar un servidor con anomalías y reenviar el tráfico sin pasar por el mismo. Dispatcher da soporte a HTTP, FTP, SSL, SMTP, NNTP, IMAP, POP3, Telnet, SIP y a cualquier otra aplicación basada en UDP sin estado o TCP.

    Todas las peticiones de cliente enviadas a una máquina de Dispatcher se dirigen al servidor "más idóneo" en función de los pesos que se establecen de forma dinámica. Puede utilizar los valores predeterminados de dichos pesos o cambiar los valores durante el proceso de configuración.

    Dispatcher ofrece tres métodos de envío (que se especifican en el puerto):

    El componente Dispatcher es la clave que permite la gestión estable y eficaz de una red de servidores grande y escalable. Con Dispatcher, puede enlazar muchos servidores individuales en lo que parecerá ser un único servidor virtual. Así, su sitio se presenta como una sola dirección IP ante los demás. Dispatcher funciona independientemente de un servidor de nombres de dominio; todas las peticiones se envían a la dirección IP de la máquina Dispatcher.

    Dispatcher proporciona distintas ventajas al equilibrar la carga de tráfico para servidores agrupados en clúster, resultando en una gestión estable y eficaz del sitio.

    Gestión de servidores locales con Dispatcher

    Figura 1. Ejemplo de una representación física de un sitio que utiliza Dispatcher para gestionar servidores locales

    Representación física de un sitio que utiliza Dispatcher para gestionar servidores locales

    En la Figura 1 se muestra una representación física del sitio utilizando una configuración de red Ethernet. La máquina Dispatcher puede instalarse sin realizar ningún cambio físico en la red. Cuando se utiliza el método de reenvío MAC, una vez que Dispatcher ha dirigido una petición de cliente al servidor óptimo, la respuesta se envía directamente del servidor al cliente sin la participación de Dispatcher.

    Gestión de servidores que utilizan Dispatcher y Metric Server

    Figura 2. Ejemplo de un sitio que utiliza Dispatcher y Metric Server para gestionar servidores

    Sitio que utiliza Dispatcher y Metric Server para gestionar servidores

    En la Figura 2 se muestra un sitio en el que todos los servidores están en una red local. El componente Dispatcher se utiliza para reenviar peticiones y Metric Server se utiliza para proporcionar información de carga del sistema a la máquina Dispatcher.

    En este ejemplo, el daemon de Metric Server está instalado en cada servidor de programa de fondo. Puede utilizar Metric Server con el componente Dispatcher o cualquier otro componente de Load Balancer.

    Gestión de servidores locales y remotos con Dispatcher

    Figura 3. Ejemplo de un sitio que utiliza Dispatcher para gestionar servidores locales y remotos

    Sitio que utiliza Dispatcher para gestionar servidores locales y remotos

    El soporte de área amplia en Dispatcher permite utilizar los servidores locales y remotos (servidores en distintas subredes). En la Figura 3 se muestra una configuración en la que un sistema Dispatcher local (Dispatcher 1) sirve de punto de entrada para todas las peticiones. Distribuye estas peticiones entre sus propios servidores locales (ServidorA, ServidorB, ServidorC) y el sistema Dispatcher remoto (Dispatcher 2), que equilibrará la carga de sus servidores locales (ServidorG, ServidorH, ServidorI).

    Al utilizar el método de reenvío NAT de Dispatcher o al utilizar el soporte de GRE, el soporte de área amplia con Dispatcher también puede lograrse sin utilizar una máquina Dispatcher en el sitio remoto (donde están ServidorD, ServidorE y ServidorF). Consulte los apartados NAT/NAPT de Dispatcher (método de reenvío nat) y Soporte de GRE (Encapsulamiento genérico de direccionamiento) para obtener más información.


    Visión general del componente CBR (Content Based Routing)

    CBR funciona con Caching Proxy para enviar mediante proxy las peticiones de cliente a los servidores HTTP o HTTPS (SSL) especificados. Permite manipular detalles de almacenamiento en caché a fin de conseguir una recuperación de documentos Web más rápida con menos requisitos de ancho de banda de red. CBR y Caching Proxy examina las peticiones HTTP utilizando tipos de reglas especificadas.

    Nota:
    El componente CBR (Content Based Routing) está disponible en todas las plataformas admitidas excepto donde se ejecuta una JVM de 64 bits. De modo alternativo, puede utilizar el método de reenvío cbr del componente Dispatcher de Load Balancer para proporcionar el direccionamiento basado en contenido sin utilizar Caching Proxy. Consulte el apartado Direccionamiento basado en contenido de Dispatcher (método de reenvío cbr) para obtener más información.

    CBR le ofrece la capacidad de especificar un conjunto de servidores que manejan una petición basándose en una expresión normal que coincide con el contenido de la petición. Dado que CBR permite especificar varios servidores para cada tipo de petición, se puede equilibrar la carga de los servidores para obtener una respuesta al cliente óptima. CBR también detecta cuando un servidor incluido en un conjunto ha sufrido una anomalía y deja de direccionar peticiones a dicho servidor. El algoritmo de equilibrio de carga que el componente CBR utiliza es idéntico al algoritmo probado que utiliza el componente Dispatcher.

    Cuando Caching Proxy recibe una petición, ésta se compara con las reglas definidas en el componente CBR. Si se encuentra una coincidencia, se elige uno de los servidores asociados a dicha regla para manejar la petición. Caching Proxy realiza su proceso normal para enviar mediante proxy la petición al servidor elegido.

    CBR tiene las mismas funciones que Dispatcher, a excepción de la alta disponibilidad, el subagente SNMP, el área amplia y unos pocos mandatos de configuración.

    Caching Proxy debe estar en ejecución para que CBR pueda empezar a equilibrar la carga de peticiones de cliente.

    Gestión de servidores locales con CBR

    Figura 4. Ejemplo de un sitio que utiliza CBR para gestionar servidores locales

    Sitio que utiliza CBR para gestionar servidores locales

    En la Figura 4 se muestra una representación lógica de un sitio en el que se emplea CBR para enviar mediante proxy algún contenido de servidores locales. El componente CBR utiliza Caching Proxy para enviar peticiones de cliente (HTTP o HTTPS) a los servidores basándose en el contenido del URL.


    Visión general del componente Site Selector

    Site Selector actúa como servidor de nombres que funciona junto con otros servidores de nombres en un sistema de nombres de dominio para equilibrar la carga entre un grupo de servidores utilizando las medidas y los pesos que se recopilan. Puede crear una configuración del sitio que le permita equilibrar la carga del tráfico entre un grupo de servidores basándose en el nombre de dominio utilizado para la petición de un cliente.

    Un cliente somete una petición para la resolución de un nombre de dominio a un servidor de nombres dentro de su red. El servidor de nombres reenvía la petición al sistema Site Selector. Site Selector luego soluciona el nombre de dominio con la dirección IP de uno de los servidores que se han configurado bajo el nombre de sitio. Site Selector devuelve la dirección IP del servidor seleccionado al servidor de nombres. El servidor de nombres devuelve la dirección IP al cliente.

    Metric Server es un componente de supervisión del sistema de Load Balancer que debe instalarse en cada servidor con equilibrio de carga incluido en la configuración. Con Metric Server, Site Selector puede supervisar el nivel de actividad de un servidor, detectar si un servidor tiene la carga menos pesada y detectar un servidor anómalo. La carga es una medición del esfuerzo del servidor. Si personaliza los archivos de script de métrica del sistema, puede controlar el tipo de medidas utilizadas para medir la carga. Puede configurar Site Selector de modo que se adapte a su entorno, teniendo en cuenta factores como la frecuencia de acceso, el número total de usuarios y los tipos de acceso (por ejemplo, consultas breves, consultas de larga ejecución o cargas con mucha utilización de la CPU).

    Gestión de servidores locales y remotos con Site Selector y Metric Server

    Figura 5. Ejemplo de un sitio que utiliza Site Selector y Metric Server para gestionar servidores locales y remotos

    Sitio que utiliza Site Selector y Metric Server para gestionar servidores locales y remotos

    En la Figura 5 se muestra un sitio en el que se utiliza el componente Site Selector para responder a peticiones. Servidor1, Servidor2 y Servidor3 son locales. Servidor4, Servidor5 y Servidor6 son remotos.

    Un cliente somete una petición para la resolución de un nombre de dominio a un servidor de nombres de cliente. El servidor de servidor de nombres reenvía la petición a través del DNS a la máquina Site Selector (ruta 1). A continuación, Site Selector resuelve el nombre de dominio en una dirección IP de uno de los servidores. Site Selector devuelve la dirección IP del servidor seleccionado al servidor de nombres de cliente. El servidor de nombres devuelve la dirección IP al cliente.

    Una vez que el cliente ha recibido la dirección IP del servidor, el cliente dirige las peticiones de la aplicación directamente al servidor seleccionado (ruta 2).

    Nota:
    En este ejemplo, Metric Server proporciona información de carga del sistema a la máquina Site Selector. El agente de Metric Server está instalado en cada servidor de programa de fondo. Utilice Metric Server junto con Site Selector; de lo contrario, Site Selector sólo puede emplear un método de selección en forma de turno rotativo para realizar el equilibrio de carga.

    Visión general del componente Cisco CSS Controller

    Cisco CSS Controller forma una solución complementaria junto con conmutadores CSS 11000 de Cisco. La solución combinada mezcla las habilidades del direccionamiento de contenido y el reenvío de paquetes de los conmutadores CSS 1100 con los sofisticados algoritmos de Load Balancer para determinar la información de carga y la disponibilidad del servicio (base de datos o aplicación de servidor de programa de fondo). La función Cisco CSS Controller emplea el algoritmo de cálculo estándar, los asesores estándares y personalizados de Load Balancer y Metric Server para determinar la métrica, el estado y la carga del servicio. Con esta información, Cisco CSS Controller genera pesos de servicio, que enviará al conmutador Cisco CSS para obtener una selección de servicio, optimización de la carga y tolerancia de errores óptimos.

    Cisco CSS Controller realiza un seguimiento de muchos criterios, incluidos:

    Cuando un conmutador Cisco CSS, sin Cisco CSS Controller, determina el estado de un servicio que proporciona contenido, utiliza tiempos de respuestas para peticiones de contenido u otras medidas de red. Con Cisco CSS Controller instalado, estas actividades se descargan del conmutador Cisco CSS a Cisco CSS Controller. Cisco CSS Controller influencia el peso del servicio o la habilidad de servir contenido, y activa o suspende un servicio como apropiado cuando el servicio deja de estar disponible o vuelve a estarlo.

    Cisco CSS Controller:

    Los pesos se aplican a todos los servicios de un puerto. Para cualquier puerto concreto, las peticiones se distribuyen entre los servicios en función del peso relativo que dichos servicios tienen entre sí. Por ejemplo, si un servicio se establece en el peso 10 y el otro en 5, el servicio establecido en 10 recibe el doble de peticiones que el servidor establecido en 5. Los pesos se proporcionan al conmutador Cisco CSS mediante SNMP. Cuando el peso de cualquier servicio se fija en un valor más alto, el conmutador Cisco CSS dirige más peticiones a dicho servicio.

    Figura 6. Ejemplo de un sitio que utiliza Cisco CSS Controller y Metric Server para gestionar servicios locales

    Sitio que utiliza Cisco CSS Controller y
Metric Server para gestionar servicios

    Cisco CSS Controller, junto con el conmutador Cisco CSS, ofrece una solución que incluye lo "mejor de los dos mundos", que combina la conmutación de contenido a velocidad de cable con la optimización del conocimiento sofisticado de aplicaciones, tolerancia de errores y carga del servicio. Cisco CSS Controller forma parte de una solución complementaria global entre el conmutador Cisco CSS e IBM WebSphere Application Server Load Balancer.


    Visión general del componente Nortel Alteon Controller

    Nortel Alteon Controller junto con la familia de conmutadores Web de Nortel Alteon ofrece una solución complementaria que combina la capacidad y velocidad de reenvío de paquetes de los conmutadores con los algoritmos sofisticados de Load Balancer para determinar los pesos de servidores.

    Nortel Alteon Controller permite desarrollar asesores personalizados capaces de realizar evaluaciones más inteligentes que tienen en cuenta la aplicación sobre la disponibilidad y carga de las aplicaciones utilizadas para desplegar servicios.

    Metric Server facilita información de carga del sistema, como la información de utilización de la CPU y la memoria, y una infraestructura para que desarrolle medidas de carga del sistema personalizadas.

    Nortel Alteon Controller recopila muchos tipos de datos de la métrica para determinar los pesos para los servidores en los que los conmutadores de Nortel Alteon Web equilibran la carga.

    Nortel Alteon Controller utiliza SNMP para comunicarse con el conmutador. La información de configuración, estado y conexión se recupera del conmutador. Cuando el controlador ha calculado los pesos de servidores, éstos se definen en el conmutador. El conmutador utiliza los pesos definidos por el controlador para seleccionar el mejor servidor para manejar peticiones de cliente para un servicio.

    Figura 7. Ejemplo de un sitio que utiliza Nortel Alteon Controller para gestionar servidores locales

    Sitio que utiliza Nortel Alteon Controller para gestionar servidores locales

    Puede gestionar el controlador mediante un navegador, una GUI remota o una interfaz de línea de mandatos remota.

    Nortel Alteon Controller junto con la familia de conmutadores web de Nortel Alteon ofrece una solución que incluye "lo mejor de los dos mundos", que combina la conmutación de paquetes a velocidad de cable con la optimización del conocimiento sofisticado de aplicaciones, tolerancia de errores y carga del servidor. Nortel Alteon Controller forma parte de una solución complementaria entre la familia de conmutadores de Web de la familia Nortel Alteon y WebSphere de IBM.


    Gestión de la red: determinación de las características de Load Balancer que se van a utilizar

    En este capítulo se enumeran las características de configuración de los componentes de Load Balancer para que pueda determinar qué características va a utilizar para gestionar la red:


    Funciones de gestor, asesores y Metric Server (para los componentes Dispatcher, CBR, y Site Selector)

    Para optimizar el equilibrio de carga entre servidores y asegurar que se selecciona el servidor "correcto", consulte los apartados:

    _ Optimización del equilibrio de carga que proporciona Load Balancer

    _ Asesores

    _ Metric Server


    Características del componente Dispatcher

    Dispatcher admite el equilibrio de carga entre los servidores HTTP, FTP, SSL, SMTP, NNTP, IMAP, POP3, Telnet, SIP y cualquier otro TCP o aplicación basada en UDP sin estado.

    Administración remota

    _ Para ejecutar la configuración de Load Balancer desde una máquina aparte de aquélla donde reside Load Balancer, consulte el apartado Administración remota de Load Balancer.

    Ubicación compartida

    _ Para ejecutar Dispatcher en la misma máquina que el servidor Web en el que va a equilibrar la carga, consulte el apartado Utilización de servidores con ubicación compartida.

    Alta disponibilidad

    _ Para utilizar Dispatcher con el fin de eliminar limitaciones de un punto de error único en la red, consulte los apartados Alta disponibilidad sencilla y Alta disponibilidad mutua.

    Afinidad del cliente con el servidor

    Cuando equilibra la carga de tráfico SSL (HTTPS):

    _ Para asegurarse de que el cliente utiliza el mismo servidor SSL para varias conexiones, consulte el apartado Cómo funciona la característica de afinidad para Load Balancer.

    _ Para asegurarse de que el cliente utiliza el mismo servidor para tráfico HTTP y SSL, consulte el apartado Afinidad entre puertos.

    _ Para asegurarse de que el cliente utiliza el mismo servidor para varias conexiones, consulte el apartado Cómo funciona la característica de afinidad para Load Balancer.

    _ Para asegurarse de que un grupo de clientes utilizan el mismo servidor para varias conexiones, consulte el apartado Máscara de dirección de afinidad (stickymask).

    _ Para eliminar un servidor de la configuración (por ejemplo, para fines de mantenimiento) sin interrumpir el tráfico del cliente, consulte el apartado Desactivar temporalmente el manejo de conexiones de servidor.

    Equilibrio de carga basado en reglas

    Para dirigir los clientes a conjuntos de servidores distintos para la misma dirección Web, puede añadir "reglas" a la configuración de Dispatcher. Para obtener más información, consulte el apartado Configuración del equilibrio de carga basado en reglas.

    _ Para dirigir clientes a conjuntos de servidores distintos según la dirección IP de origen del cliente, consulte el apartado Utilización de reglas basadas en la dirección IP de cliente.

    _ Para dirigir clientes a conjuntos de servidores distintos según el puerto del cliente, consulte el apartado Utilización de reglas basadas en el puerto de cliente.

    _ Para dirigir clientes a conjuntos de servidores distintos según la hora del día, consulte el apartado Utilización de reglas basadas en la hora del día.

    _ Para dirigir clientes a servidores según los bits TOS (Tipo de servicio) de paquetes de red, consulte el apartado Utilización de reglas basadas en el tipo de servicio (TOS).

    _ Para dirigir clientes a conjuntos de servidores distintos según el tráfico del sitio:

    _ Utilizando conexiones por segundo, consulte el apartado Utilización de reglas basadas en las conexiones por segundo.

    _ Utilizando el total de conexiones activas, consulte el apartado Utilización de reglas basadas en el total de conexiones activas.

    _ Reservando y compartiendo el ancho de banda para direcciones Web distintas, consulte el apartado Utilización de reglas basadas en ancho de banda reservado y ancho de banda compartido.

    _ Asegurando que el tráfico se mide correctamente para cada uno de los conjuntos de servidores, consulte el apartado Opción de evaluación del servidor para reglas.

    _ Para dirigir el tráfico de desbordamiento a un conjunto de servidores predeterminado (por ejemplo, los servidores que responderán "site busy", sitio ocupado), consulte el apartado Utilización de reglas que son siempre ciertas.

    _ Para alterar temporalmente la afinidad del cliente con el fin de asegurarse de que el cliente no se "adhiera" a un servidor con desbordamiento, consulte el apartado Alteración temporal de la afinidad entre puertos.

    Direccionamiento basado en contenido con el método de reenvío cbr de Dispatcher

    Para asegurarse de que los clientes SSL vuelven al mismo servidor SSL, según el ID de SSL de la petición de cliente

    _ Consulte la sección en HTTPS (SLL).

    Para dirigir los clientes HTTP a conjuntos de servidores distintos utilizando reglas según la correspondencia del contenido del URL de la petición de cliente, consulte los apartados Direccionamiento basado en contenido de Dispatcher (método de reenvío cbr) y Utilización de reglas basadas en el contenido de peticiones para obtener más información.

    _ Para distinguir entre URL determinados y sus aplicaciones de servicio, consulte el apartado Creación de particiones del servidor: servidores lógicos configurados con un servidor físico (dirección IP)

    _ Para asegurarse de que los clientes vuelven al mismo servidor cuando solicitan un contenido similar en varias conexiones utilizando cookies creados por los servidores Web, consulte el apartado Afinidad de cookies pasivos.

    _ Para equilibrar la carga del tráfico Web con servidores proxy de colocación en caché que permiten que se coloque en caché un contenido único en cada servidor (así aumenta el tamaño de la memoria caché del sitio al eliminar la colocación en caché del contenido redundante en varias máquinas) consulte el apartado Afinidad de URI.

    Comparación entre el método de reenvío cbr del componente Dispatcher y del componente CBR

    La ventaja de utilizar el método de reenvío cbr de Dispatcher es que proporciona una respuesta más rápida a las peticiones de cliente que el componente CBR. Además, el reenvío cbr de Dispatcher no requiere la instalación y utilización de Caching Proxy.

    Si la red incluye tráfico SSL (de cliente a través de servidor) completamente seguro, la ventaja de utilizar el componente CBR (junto con Caching Proxy) es que puede procesar el cifrado y descifrado necesario para realizar direccionamiento basado en contenido. Para conexiones completamente seguras, el reenvío cbr de Dispatcher sólo se puede configurar con la afinidad de ID de SSL porque no puede procesar el cifrado y descifrado para realizar el direccionamiento basado en contenido verdadero en el URL de la petición de cliente.

    Equilibrio de carga de área amplia

    Se puede conseguir el equilibrio de carga de área amplia por varios métodos distintos.

    _ Para equilibrar la carga en servidores remotos utilizando la característica de área amplia de Dispatcher, consulte los apartados: Configurar soporte de Dispatcher de área amplia y Soporte de GRE (Encapsulamiento genérico de direccionamiento).

    Nota:
    Es necesario un Dispatcher adicional en el sitio remoto si no se admite GRE en el sitio remoto.

    _ Para equilibrar la carga en servidores remotos utilizando el método de reenvío nat de Dispatcher, consulte el apartado NAT/NAPT de Dispatcher (método de reenvío nat).

    Nota:
    No es necesario ningún Dispatcher adicional en el sitio remoto si se utiliza el método de reenvío nat.

    Correlación de puertos

    _ Para equilibrar la carga de una dirección Web con varios daemons de servidor en la misma máquina, donde cada daemon está a la escucha en un puerto único, consulte el apartado NAT/NAPT de Dispatcher (método de reenvío nat).

    Configuración de Dispatcher en una red privada

    _ Para incluir el tráfico del Dispatcher en una red distinta que el tráfico del cliente (con el fin de mejorar el rendimiento disminuyendo la competencia por los recursos en la red externa), consulte el apartado Utilización de una configuración de red privada.

    Clúster comodín y puerto comodín

    _ Para combinar varias direcciones Web en una sola configuración, consulte el apartado Utilizar un clúster comodín para combinar configuraciones de servidores.

    _ Para equilibrar la carga de cortafuegos, consulte el apartado Utilizar un clúster comodín para equilibrar la carga de cortafuegos.

    _ Para dirigir el tráfico de todos los puertos de destino, consulte el apartado Utilizar el puerto comodín para dirigir el tráfico de puerto no configurado.

    Detección de ataques para "rechazo de servicio"

    _ Para detectar posibles ataques para "rechazo de servicio", consulte el apartado Detección de ataques para rechazo de servicio (DoS).

    Anotaciones en binario

    _ Para analizar el tráfico del servidor, consulte el apartado Utilización del registro cronológico binario para analizar estadísticas de servidor.

    Alertas

    _ Para generar alertas cuando se marquen los servidores como activos o inactivos, consulte el apartado Utilización de scripts para generar una alerta o anotar anomalías en el servidor.


    Características del componente CBR (Content Based Routing)

    CBR integra el equilibrio de carga con Caching Proxy de WebSphere Application Server para dirigir mediante proxy peticiones de cliente a los servidores HTTP o HTTPS (SSL) especificados. Para utilizar CBR, debe instalarse y configurarse Caching Proxy en la misma máquina. Si desea información sobre cómo configurar Caching Proxy con el fin de utilizar CBR, consulte el apartado Paso 1. Configurar Caching Proxy para que pueda utilizar CBR.

    Nota:
    El componente CBR (Content Based Routing) está disponible en todas las plataformas admitidas excepto donde se ejecuta una JVM de 64 bits. De modo alternativo, puede utilizar el método de reenvío cbr del componente Dispatcher de Load Balancer para proporcionar el direccionamiento basado en contenido sin utilizar Caching Proxy. Consulte el apartado Direccionamiento basado en contenido de Dispatcher (método de reenvío cbr) para obtener más información.

    Con el componente CBR (o el método de reenvío cbr del componente Dispatcher), puede proporcionar estas ventajas a sus clientes:

    _ Equilibre la carga de peticiones de cliente para distintos tipos de contenido a conjuntos de servidores. (Consulte el apartado Peticiones de equilibrio de carga para distintos tipos de contenido.)

    _ Mejore el tiempo de respuesta dividiendo óptimamente el contenido del sitio entre los servidores web. (Consulte el apartado División del contenido del sitio para obtener un mejor tiempo de respuesta.)

    _ Asegúrese de que el tráfico del cliente sea ininterrumpido cuando haya un anomalía del servidor permitiendo que se asignen varios servidores a cada tipo de contenido. (Consulte el apartado Provisión de una copia de seguridad del contenido del servidor web.)

    Comparación entre el método de reenvío cbr de componente CBR y de componente Dispatcher

    Si la red requiere un tráfico SSL (de cliente a través de servidor) completamente seguro, la ventaja de utilizar el componente CBR (junto con Caching Proxy) es que puede procesar el cifrado/descifrado SSL para realizar direccionamiento basado en contenido.

    Para conexiones SSL completamente seguras, sólo se puede configurar el reenvío cbr de Dispatcher con la afinidad de ID de SSL porque no puede procesar el cifrado/descifrado para realizar el direccionamiento basado en contenido verdadero en el URL de la petición de cliente.

    Para tráfico HTTP, la ventaja de utilizar el método de reenvío cbr de Dispatcher es que proporciona una respuesta más rápida a las peticiones de cliente que el componente CBR. Además, el reenvío cbr de Dispatcher no requiere la instalación y utilización de Caching Proxy.

    Administración remota

    _ Para ejecutar la configuración de Load Balancer desde una máquina aparte de aquélla donde reside Load Balancer, consulte el apartado Administración remota de Load Balancer.

    Ubicación compartida

    _ Se puede ejecutar CBR en la misma máquina que un servidor Web del que se está equilibrando la carga. Consulte el apartado Utilización de servidores con ubicación compartida para obtener más información.

    CBR con varias instancias de Caching Proxy

    _ Para mejorar la utilización de la CPU utilizando varios procesos Caching Proxy, consulte el apartado Utilización de varios procesos Caching Proxy para mejorar la utilización de la CPU.

    Provisión de direccionamiento basado en contenido para conexiones SSL

    Para permitir direccionamiento basado en contenido de tráfico SSL:

    _ Utilizando una conexión segura en ambos sentidos (cliente a proxy y proxy a servidor), consulte el apartado Equilibrio de carga entre conexiones completamente seguras (SSL).

    _ Utilizando conexiones seguras sólo de cliente a proxy, consulte el apartado Equilibrio de carga de cliente a proxy en SSL y de proxy a servidor en HTTP.

    Creación de particiones del servidor

    _ Para distinguir entre URL determinados y sus aplicaciones de servicio, consulte el apartado Creación de particiones del servidor: servidores lógicos configurados con un servidor físico (dirección IP)

    Equilibrio de carga basado en reglas

    Para dirigir los clientes a conjuntos de servidores distintos para la misma dirección Web, puede añadir "reglas" a la configuración de CBR. Para obtener más información, consulte el apartado Configuración del equilibrio de carga basado en reglas.

    _ Para dirigir clientes a conjuntos de servidores distintos según el contenido del URL solicitado, consulte el apartado Utilización de reglas basadas en el contenido de peticiones.

    _ Para dirigir clientes a conjuntos de servidores distintos según la dirección IP de origen del cliente, consulte el apartado Utilización de reglas basadas en la dirección IP de cliente.

    _ Para dirigir clientes a conjuntos de servidores distintos según la hora del día, consulte el apartado Utilización de reglas basadas en la hora del día.

    _ Para dirigir clientes a conjuntos de servidores distintos según el tráfico del sitio:

    Utilizando conexiones por segundo, consulte el apartado Utilización de reglas basadas en las conexiones por segundo.

    Utilizando el total de conexiones activas, consulte el apartado Utilización de reglas basadas en el total de conexiones activas.

    _ Para dirigir el tráfico de desbordamiento a un conjunto de servidores predeterminado (por ejemplo, el servidor o servidores que responderán "site busy", sitio ocupado), consulte el apartado Utilización de reglas que son siempre ciertas.

    _ Para alterar temporalmente la afinidad del cliente con el fin de asegurarse de que el cliente no se "adhiera" a un servidor con desbordamiento, consulte el apartado Alteración temporal de la afinidad entre puertos.

    Afinidad del cliente con el servidor

    _ Para asegurarse de que un cliente devuelva el mismo servidor para varias conexiones, consulte el apartado Cómo funciona la característica de afinidad para Load Balancer.

    _ Para eliminar un servidor de la configuración (por ejemplo, para fines de mantenimiento) sin interrumpir el tráfico del cliente, consulte el apartado Desactivar temporalmente el manejo de conexiones de servidor.

    _ Para asegurarse de que los clientes vuelven al mismo servidor cuando solicitan un contenido similar en varias conexiones sin confiar en cookies creados por los servidores Web, consulte el apartado Afinidad de cookies activos.

    _ Para asegurarse de que los clientes vuelven al mismo servidor cuando solicitan un contenido similar en varias conexiones utilizando cookies creados por los servidores Web, consulte el apartado Afinidad de cookies pasivos.

    _ Para equilibrar la carga del tráfico Web con servidores proxy de colocación en memoria caché que permiten que se coloque en memoria caché un contenido único en cada servidor (así aumenta el tamaño de la memoria caché del sitio al eliminar la colocación en caché del contenido redundante en varias máquinas) consulte el apartado Afinidad de URI.

    Alta disponibilidad con Dispatcher y CBR

    _ Para eliminar las limitaciones de un punto único de anomalía en la red utilizando Dispatcher en una configuración de dos niveles con CBR, consulte el apartado Cómo Load Balancer puede proporcionar alta disponibilidad.

    Anotaciones en binario

    _ Para analizar el tráfico del servidor, consulte el apartadoUtilización del registro cronológico binario para analizar estadísticas de servidor.

    Alertas

    _ Para generar alertas cuando se marquen los servidores como activos o inactivos, consulte el apartado Utilización de scripts para generar una alerta o anotar anomalías en el servidor.


    Características del componente Site Selector

    Site Selector equilibra la carga de peticiones de servicio de nombres entre un grupo de servidores.

    Administración remota

    _ Para ejecutar la configuración de Load Balancer desde una máquina aparte de aquélla donde reside Load Balancer, consulte el apartado Administración remota de Load Balancer.

    Ubicación compartida

    _ Se puede ejecutar Site Selector en la misma máquina que el servidor del que se está equilibrando la carga sin tener que realizar pasos de configuración adicionales.

    Alta disponibilidad

    _ La característica de alta disponibilidad está inherentemente disponible a través de metodologías de sistema de nombres de dominio (DNS) utilizando varios Site Selectors redundantes, suponiendo que la configuración del servidor de nombres padre es correcta y que los métodos de recuperación de DNS normales se encuentran en su lugar. Por ejemplo, entre los métodos de recuperación de DNS normales están: retransmisión de consultas y reintento de transferencias de zona.

    _ Para eliminar las limitaciones de un punto único de anomalía en la red utilizando Dispatcher en una configuración de dos niveles con Site Selector, consulte el apartado Cómo Load Balancer puede proporcionar alta disponibilidad.

    Afinidad del cliente con el servidor

    _ Para asegurarse de que el cliente utiliza el mismo servidor para varias solicitudes de servidor de nombres, consulte el apartado Cómo funciona la característica de afinidad para Load Balancer.

    _ Para asegurarse de que haya afinidad de cliente con servidor utilizando el método DNS estándar de establecer el TTL (Tiempo de duración), consulte el apartado Consideraciones de TTL.

    Equilibrio de carga basado en reglas

    Para dirigir peticiones de cliente a conjuntos de servidores distintos para la resolución de nombres de dominio, puede añadir "reglas" a la configuración de Site Selector. Para obtener más información, consulte el apartado Configuración del equilibrio de carga basado en reglas.

    _ Para dirigir clientes a conjuntos de servidores distintos según la dirección IP de origen del cliente, consulte el apartado Utilización de reglas basadas en la dirección IP de cliente.

    _ Para dirigir clientes a conjuntos de servidores distintos según la hora del día, consulte el apartado Utilización de reglas basadas en la hora del día.

    _ Para dirigir clientes a conjuntos de servidores distintos según los valores de carga de métrica del conjunto de servidores, consulte los apartados:

    Regla de toda la métrica

    Regla de media de la métrica

    _ Para dirigir el tráfico de desbordamiento a un conjunto de servidores predeterminado (por ejemplo, el servidor o servidores que responderán "site busy", sitio ocupado), consulte el apartado Utilización de reglas que son siempre ciertas.

    Equilibrio de carga de área amplia

    Se puede ejecutar Site Selector tanto en redes de área local (LAN) como en redes de área amplia (WAN).

    En entornos de WAN:

    _ Para equilibrar la carga de peticiones del servidor de nombres de cliente utilizando el método de selección de turno rotativo sopesado, no es necesario ningún paso de configuración adicional.

    _ Para tener en cuenta la proximidad de red del servidor de nombres de cliente a los servidores que proporcionan la aplicación solicitada (los servidores de destino), consulte el apartado Utilización de la característica proximidad de red.

    Alertas

    _ Para generar alertas cuando se marquen los servidores como activos o inactivos, consulte el apartado Utilización de scripts para generar una alerta o anotar anomalías en el servidor.


    Características del componente Cisco CSS Controller

    Cisco CSS Controller mejora las posibilidades de equilibrio de carga de servidores de los Conmutadores Cisco con mayor aplicación y conciencia del sistema. El controlador utiliza medidas más sensibles a la aplicación y al sistema para calcular dinámicamente los pesos del servidor. Los pesos se proporcionan al conmutador con SNMP. El conmutador utiliza los pesos cuando procesa peticiones de cliente lo que produce una optimización de la carga del servidor y una tolerancia a errores mejorada.

    Para optimizar el equilibrio de carga entre servidores y asegurar que se selecciona el servidor "correcto", consulte los apartados:

    _ Optimización del equilibrio de carga que proporciona Load Balancer

    _ Asesores y Crear asesores personalizados (personalizables)

    _ Metric Server

    Administración remota

    _ Para ejecutar la configuración de Load Balancer desde una máquina aparte de aquélla donde reside Load Balancer, consulte el apartado Administración remota de Load Balancer.

    Ubicación compartida

    _ Se puede ejecutar Cisco CSS Controller en la misma máquina que el servidor del que se está equilibrando la carga sin tener que realizar pasos de configuración adicionales.

    Alta disponibilidad

    _ Para eliminar las limitaciones de un punto único de anomalía en la red, los dos, tanto el conmutador Cisco CSS como Cisco CSS Controller, tienen posibilidades de alta disponibilidad. Para el conmutador, están disponibles las posibilidades de alta disponibilidad utilizando el protocolo de redundancia de CSS. Para Cisco CSS Controller, se utiliza un protocolo propietario que permite la configuración de reposo dinámico de dos controladores.

    Si desea más información sobre cómo configurar la característica de alta disponibilidad, consulte el apartado Alta disponibilidad.

    Anotaciones en binario

    _ Para analizar el tráfico del servidor, consulte el apartadoUtilización del registro cronológico binario para analizar estadísticas de servidor.

    Alertas

    _ Para generar alertas cuando se marquen los servidores como activos o inactivos, consulte el apartado Utilización de scripts para generar una alerta o anotar anomalías en el servidor.


    Características del componente Nortel Alteon Controller

    Nortel Alteon Controller mejora las posibilidades de equilibrio de carga de servidores de los Conmutadores Nortel Alteon con mayor aplicación y conciencia del sistema. El controlador utiliza medidas más sensibles a la aplicación y al sistema para calcular dinámicamente los pesos del servidor. Los pesos se proporcionan al conmutador con SNMP. El conmutador utiliza los pesos cuando procesa peticiones de cliente lo que produce una optimización de la carga del servidor y una tolerancia a errores mejorada.

    Para optimizar el equilibrio de carga entre servidores y asegurar que se selecciona el servidor "correcto", consulte los apartados:

    _ Optimización del equilibrio de carga que proporciona Load Balancer

    _ Asesores y Crear asesores personalizados (personalizables)

    _ Metric Server

    Administración remota

    _ Para ejecutar la configuración de Load Balancer desde una máquina aparte de aquélla donde reside Load Balancer, consulte el apartado Administración remota de Load Balancer.

    Ubicación compartida

    _ Se puede ejecutar Nortel Alteon Controller en la misma máquina que el servidor del que se está equilibrando la carga sin tener que realizar pasos de configuración adicionales.

    Alta disponibilidad

    _ Para eliminar las limitaciones de un punto único de anomalía en la red, los dos, Conmutador Nortel Alteon Web y Nortel Alteon Controller, tienen posibilidades de alta disponibilidad. Para el conmutador, es posible la alta disponibilidad utilizando el protocolo de redundancia para conexiones con servidores y para servicios. Nortel Alteon Controller proporciona una alta disponibilidad utilizando un protocolo propietario que permite la configuración de reposo dinámico de dos controladores.

    Si desea más información sobre cómo configurar la característica de alta disponibilidad, consulte el apartado Alta disponibilidad.

    Anotaciones en binario

    _ Para analizar el tráfico del servidor, consulte el apartadoUtilización del registro cronológico binario para analizar estadísticas de servidor.

    Alertas

    _ Para generar alertas cuando se marquen los servidores como activos o inactivos, consulte el apartado Utilización de scripts para generar una alerta o anotar anomalías en el servidor.


    Instalación de Load Balancer

    Este capítulo proporciona información sobre la instalación de Load Balancer mediante herramientas de paquetes del sistema y los requisitos de todos los sistemas operativos admitidos.

    Para obtener instrucciones de instalación con el programa de instalación del producto, consulte el documento Conceptos, planificación e instalación de Edge Components.

    Java 2 SDK se instala automáticamente con Load Balancer en todas las plataformas.

    Si va a migrar desde una versión anterior de Load Balancer, o si va a volver a instalar un sistema operativo, antes de la instalación puede guardar cualquier archivo de configuración o archivo de script anterior para Load Balancer.

    Dependiendo del tipo de instalación, no se proporcionarán todos los paquetes de Load Balancer que se listan en este apartado.


    Requisitos del sistema AIX e instalación

    Requisitos para sistemas AIX

    Si desea información sobre los requisitos de hardware y software, incluidos los navegadores soportados, consulte la siguiente página Web: http://www.ibm.com/support/docview.wss?rs=180&uid=swg27006921

    Instalación para sistemas AIX

    En la Tabla 1 se listan las imágenes installp para Load Balancer y el orden de instalación recomendado utilizando la herramienta de instalación de paquetes del sistema.

    Tabla 1. Imágenes installp de AIX

    Base ibmlb.base.rte
    Administración (con los mensajes)
    • ibmlb.admin.rte
    • ibmlb.msg.idioma.admin

    Controlador de dispositivo ibmlb.lb.driver
    Licencia ibmlb.lb.license
    Componentes de Load Balancer (con los mensajes)
    • ibmlb.componente.rte
    • ibmlb.msg.idioma.lb

    Documentación (con los mensajes)
    • ibmlb.doc.rte
    • ibmlb.msg.en_US.doc

    Metric Server ibmlb.ms.rte

    Donde componente puede ser: disp (Dispatcher), cbr (CBR), ss (Site Selector), cco (Cisco CSS Controller) o nal (Nortel Alteon Controller). De modo opcional, puede seleccionar qué componente o componentes desea instalar.

    Donde idioma puede ser:

    El paquete de documentación sólo incluye la documentación en inglés. El conjunto de las traducciones de la documentación de Load Balancer están en el siguiente sitio Web: www.ibm.com/software/webservers/appserv/ecinfocenter.html.

    Antes de instalar

    Si tiene una versión anterior instalada, desinstale esta copia antes de instalar la versión actual. Primero, asegúrese de que se han detenido todos los ejecutores y servidores. A continuación, para desinstalar el producto completo, entre el mandato installp -u ibmlb (o el nombre anterior, por ejemplo intnd). Para desinstalar catálogos de archivos determinados, deberá listarlos específicamente en lugar de indicar el nombre de paquete.

    Cuando instala el producto, tiene la opción de instalar cualquiera de los elementos siguientes o todos ellos:

    Pasos de instalación

    Siga estos pasos para instalar Load Balancer para sistemas AIX:

    1. Inicie la sesión como root.
    2. Inserte el soporte del producto o, si realiza la instalación desde la Web, copie las imágenes de instalación en un directorio.
    3. Instale la imagen de instalación. Utilice la herramienta SMIT para instalar Load Balancer para AIX porque SMIT asegura la instalación automática de todos los mensajes.

      Con SMIT:

      Seleccione
      Instalación y mantenimiento de software

      Seleccione
      Instalar y actualizar software

      Seleccione
      Instalar y actualizar desde el último software disponible

      Entre
      El dispositivo o el directorio que contenga las imágenes installp

      Entre
      En el *SOFTWARE a instalar, la información adecuada para especificar las opciones (o seleccione Listar).

      Pulse
      Aceptar

      Cuando finalice el mandato, pulse Hecho y a continuación seleccione Salir de Smit del menú Salir o pulse F12. Si utiliza SMITTY, pulse F10 para salir del programa.

      Con la línea de mandatos:

      Si va a instalar desde un CD, debe entrar los mandatos siguientes para montar el CD:

      mkdir /cdrom
      mount -v cdrfs -p -r /dev/cd0 /cdrom
      

      Consulte la tabla siguiente con el objeto de determinar qué mandato o mandatos ha de entrar para instalar los paquetes de Load Balancer que desea para sistemas AIX:

      Tabla 2. Mandatos de instalación de AIX

      Base installp -acXgd dispositivo ibmlb.base.rte
      Administración (con los mensajes) installp -acXgd dispositivo ibmlb.admin.rte ibmlb.msg.idioma.admin
      Controlador de dispositivo installp -acXgd dispositivo ibmlb.lb.driver
      Licencia installp -acXgd dispositivo ibmlb.lb.license
      Componentes de Load Balancer (con msgs). Incluye: Dispatcher, CBR, Site Selector, Cisco CSS Controller y Nortel Alteon Controller. installp -acXgd dispositivo ibmlb.componente.rte ibmlb.msg.idioma.lb
      Documentos (con los mensajes) installp -acXgd dispositivo ibmlb.doc.rte ibmlb.msg.en_US.lb
      Metric Server installp -acXgd dispositivo ibmlb.ms.rte

      donde dispositivo es:

      Asegúrese de que la columna de resultados en el resumen contiene SATISFACTORIO para cada parte de Load Balancer que instale (APLICAR). No continúe hasta que todas las partes que desea instalar se hayan aplicado satisfactoriamente.

      Nota:
      Para generar una lista de catálogos de archivos de una imagen installp, incluidos todos los catálogos de mensajes disponibles, entre:
      installp -ld dispositivo
      

      donde dispositivo es:

      • /cdrom si va a instalar desde un CD.
      • /dir (el directorio que contiene las imágenes installp) si va a instalar desde un sistema de archivos.

      Para desmontar el CD, escriba:

      unmount /cdrom
      
    4. Verifique si el producto se ha instalado. Entre el mandato siguiente:
      lslpp -h | grep ibmlb
      

      Si se ha instalado todo el producto, este mandato devolverá el resultado indicado a continuación:

      ibmlb.base.rte
      ibmlb.admin.rte
      ibmlb.lb.driver
      ibmlb.lb.license
      ibmlb.<componente>.rte
      ibmlb.doc.rte
      ibmlb.ms.rte
      ibmlb.msg.idioma.admin
      ibmlb.msg.en_US.doc
      ibmlb.msg.idioma.lb
       
      

    Las vías de acceso de instalación de Load Balancer incluyen las siguientes:

    Para la administración remota de Load Balancer, con la invocación a método remoto (RMI), tendrá que instalar los paquetes de administración, base, componentes y licencia en el cliente. Para obtener información sobre RMI, consulte el apartado Remote Method Invocation (RMI).


    Requisitos del sistema HP-UX e instalación

    Requisitos para sistemas HP-UX

    Si desea información sobre los requisitos de hardware y software, incluidos los navegadores soportados, consulte la siguiente página Web: http://www.ibm.com/support/docview.wss?rs=180&uid=swg27006921

    Instalación para sistemas HP-UX

    En este apartado se explica cómo instalar Load Balancer en sistemas HP-UX utilizando el CD del producto.

    Antes de instalar

    Antes de comenzar el procedimiento de instalación, asegúrese de que tiene autorización de raíz para instalar el software:

    Si tiene una versión anterior instalada, debería desinstalar esa copia antes de instalar la versión actual. En primer lugar, asegúrese de que ha detenido el ejecutor y el servidor. A continuación, para desinstalar Load Balancer consulte el apartado Instrucciones para desinstalar los paquetes.

    Pasos de instalación

    En la Tabla 3 se enumeran los nombres de los paquetes de instalación de Load Balancer y el orden recomendado para instalarlos utilizando la herramienta de instalación de paquetes del sistema.

    Tabla 3. Detalles de instalación de paquetes HP-UX para Load Balancer

    Descripción del paquete Nombre del paquete de HP-UX
    Base ibmlb.base
    Administración y mensajes ibmlb.admin ibmlb.nlv-idioma
    Licencia de Load Balancer ibmlb.lic
    Componentes de Load Balancer ibmlb.componente
    Documentación ibmlb.doc
    Metric Server ibmlb.ms

    Notas:

    1. La variable idioma hace referencia a la sustitución de uno de los siguientes códigos específicos de idioma: de_DE, en_US, es_ES, fr_FR, it_IT, ja_JP, ko_KR, zh_CN, zh_TW.

    2. La variable componente hace referencia a la sustitución de una de las siguientes: disp (dispatcher), cbr (CBR), ss (Site Selector), cco (Cisco CSS Controller) o nal (Nortel Alteon Controller).

    3. El paquete de documentación (ibmlb.doc) sólo incluye la documentación en inglés. El conjunto de las traducciones de la documentación de Load Balancer están en el siguiente sitio Web: www.ibm.com/software/webservers/appserv/ecinfocenter.html.

    Nota:
    Los sistemas HP-UX no dan soporte al entorno local de Portugués de Brasil (pt_BR). Los entornos locales soportados en sistemas HP-UX son:

    Instrucciones para instalar los paquetes

    El procedimiento especificado a continuación facilita detalles sobre los pasos necesarios para completar esta tarea.

    1. Conéctese como superusuario local root.
      su - root
      Contraseña: contraseña
      
    2. Emita el mandato de instalación para instalar los paquetes:

      swinstall -s /origen nombre_paquete
      

      donde origen es el directorio absoluto de la ubicación del paquete y nombre_paquete es el nombre del paquete.

      El siguiente mandato instala únicamente el paquete base de Load Balancer (ibmlb.base), si realiza la instalación desde el directorio raíz del CD:

      swinstall -s /origen ibmlb.base
      

      Si realiza la instalación desde el directorio raíz, emita el siguiente mandato para instalar todos los paquetes de Load Balancer:

      swinstall -s /origen ibmlb
      
    3. Compruebe la instalación de los paquetes de Load Balancer

      Emita el mandato swlist para enumerar todos los paquetes que ha instalado. Por ejemplo,

      swlist -l fileset ibmlb
       
      

    Instrucciones para desinstalar los paquetes

    Utilice el mandato swremove para desinstalar los paquetes. Elimine los paquetes en el orden inverso en el que se instalaron. Por ejemplo, emita los siguientes mandatos:


    Requisitos del sistema Linux e instalación

    Requisitos para sistemas Linux

    Si desea obtener los requisitos de hardware y software, incluidos los navegadores soportados, consulte la siguiente página Web: http://www.ibm.com/support/docview.wss?rs=180&uid=swg27006921

    Instalación para sistemas Linux

    En este apartado se explica cómo instalar Load Balancer en sistemas Linux utilizando el CD del producto.

    Antes de instalar

    Antes de comenzar el procedimiento de instalación, asegúrese de que tiene autorización de raíz para instalar el software:

    Si tiene una versión anterior instalada, debería desinstalar esa copia antes de instalar la versión actual. Primero, asegúrese de que se han detenido todos los ejecutores y servidores. Después, a fin de desinstalar el producto completo, entre el mandato rpm -e nombrepaquete. Al desinstalar, invierta el orden utilizado para la instalación de los paquetes asegurándose de que los paquetes de administración se desinstalen los últimos.

    Pasos de instalación

    Para instalar Load Balancer:

    1. Realice los preparativos para la instalación.
    2. Verifique si el producto se ha instalado. Entre el mandato siguiente:

      rpm -qa | grep ibmlb

      Si instala el producto completo aparecerá lo siguiente:

    Para la administración remota de Load Balancer, con la invocación a método remoto (RMI), debe instalar los paquetes de administración, base, componentes y licencia en el cliente. Para obtener información sobre RMI, consulte el apartado Remote Method Invocation (RMI).


    Requisitos del sistema Solaris e instalación

    Requisitos de Solaris

    Si desea información sobre los requisitos de hardware y software, incluidos los navegadores soportados, consulte la siguiente página Web: http://www.ibm.com/support/docview.wss?rs=180&uid=swg27006921

    Instalación para Solaris

    En este apartado se explica cómo instalar Load Balancer en sistemas Solaris utilizando el CD del producto.

    Antes de instalar

    Antes de comenzar el procedimiento de instalación, asegúrese de que tiene autorización de raíz para instalar el software:

    Si tiene una versión anterior instalada, desinstale esa copia antes de instalar la versión actual. En primer lugar, asegúrese de que ha detenido todos los ejecutores y los servidores. A continuación, para desinstalar Load Balancer indique pkgrm nombre_paquete.

    Pasos de instalación

    Para instalar Load Balancer:

    1. Realice los preparativos para la instalación.

      En el indicador de mandatos, entre pkgadd -d nombreVíaAcceso , donde nombreVíaAcceso es el nombre de dispositivo de la unidad de CD-ROM o el directorio en el disco duro donde se ubica el paquete; por ejemplo: pkgadd -d /cdrom/cdrom0/.

      A continuación figura una lista de los paquetes visualizados y el orden recomendado en el que deberían instalarse.

      El paquete de documentación (ibmlbdoc) sólo incluye la documentación en inglés. El conjunto de las traducciones de la documentación de Load Balancer están en el siguiente sitio Web: www.ibm.com/software/webservers/appserv/ecinfocenter.html.

      Si desea instalar todos los paquetes, escriba simplemente "all" y pulse Intro. Si desea instalar algunos de los componentes, entre el nombre o nombres correspondientes a los paquetes a instalar, separados por un espacio o una coma, y pulse Intro. Puede que se le solicite que cambie permisos de directorios o archivos existentes. Sólo tiene que pulsar Intro o responder "yes" (sí). Tiene que instalar los paquetes de requisito previo (porque se realiza la instalación por orden alfabético no por orden de requisito previo). Si responde "all" (todo) sólo responda "yes" (sí) a todas las solicitudes y la instalación se realizará satisfactoriamente.

      Si desea instalar únicamente el componente Dispatcher con la documentación y Metric Server, debe instalar los paquetes siguientes: ibmlbbase, ibmlbadm, ibmlblic, ibmdisp, ibmlbdoc e ibmlbms.

      Para la administración remota de Load Balancer, con la invocación a método remoto (RMI), tendrá que instalar los paquetes de administración, base, componentes y licencia en el cliente. Para obtener información sobre RMI, consulte el apartado Remote Method Invocation (RMI).

      Las vías de acceso de instalación de Load Balancer son las siguientes:

    2. Verifique si el producto se ha instalado. Emita este mandato: pkginfo | grep ibm.

    Requisitos del sistema Windows e instalación

    Requisitos para sistemas Windows

    Si desea información sobre los requisitos de hardware y software, incluidos los navegadores soportados, consulte la siguiente página Web: http://www.ibm.com/support/docview.wss?rs=180&uid=swg27006921

    Instalación para sistemas Windows

    En este apartado se explica cómo instalar Load Balancer en sistemas Windows utilizando el CD del producto.

    Paquetes de instalación

    Se le proporcionará diversos paquetes de instalación:

    Para la administración remota de Load Balancer, con la invocación a método remoto (RMI), tendrá que instalar los paquetes de administración, licencia y componentes en el cliente. Para obtener información sobre RMI, consulte el apartado Remote Method Invocation (RMI).

    Antes de instalar

    Restricciones: La versión Windows de Load Balancer no se puede instalar en la misma máquina con IBM Firewall.

    Antes de comenzar el procedimiento de instalación, asegúrese de que ha iniciado la sesión como Administrador o como usuario con privilegios administrativos.

    Si tiene una versión anterior instalada, debería desinstalar esa copia antes de instalar la versión actual. Para desinstalar utilizando Agregar o quitar programas, realice lo siguiente:

    1. Pulse Inicio > Configuración (para Windows 2000) > Panel de control
    2. Efectúe una doble pulsación en Agregar/quitar programas
    3. Seleccione IBM WebSphere Edge Components (o el nombre anterior, por ejemplo, IBM Edge Server)
    4. Pulse Cambiar/quitar

    Pasos de instalación

    Para instalar Load Balancer:

    1. Inserte el CD-ROM de Load Balancer en la unidad de CD-ROM y aparecerá automáticamente la ventana de instalación.
    2. El paso siguiente sólo es necesario si la ejecución automática del CD no ha funcionado en el sistema. Con el ratón, pulse el botón 1 del ratón 1 para realizar estas tareas:
    3. Seleccione el Idioma en el que desea leer el proceso de instalación.
    4. Pulse Aceptar.
    5. Siga las instrucciones del programa de instalación.
    6. Si desea cambiar la unidad o el directorio de destino, pulse Examinar.
    7. Tiene la opción de seleccionar "Todo el producto Load Balancer" o "Su elección de componentes".
    8. Una vez completada la instalación, aparecerá un mensaje para solicitarle que reinicie el sistema antes de utilizar Load Balancer. Esto es necesario para asegurarse de que se han instalado todos los archivos y de que se ha añadido la variable de entorno IBMLBPATH al registro.

    Las vías de acceso de instalación de Load Balancer incluyen las siguientes:


    Actualización de Load Balancer

    Obtener una actualización: puede obtener el fixpack de Edge Components para los sistemas operativos AIX, HP-UX, Linux, Solaris o Microsoft Windows de la siguiente manera:

    Para obtener información sobre sistemas operativos admitidos, consulte el sitio de soporte de IBM para Requisitos del sistema detallados para WebSphere Application Server.

    Puede encontrar el enlace con los paquetes de renovación o los fixpack para Edge Components en el sitio de soporte IBM Descargas recomendadas para WebSphere Application Server.

    1. Busque el release de servicio correctivo al cual desea actualizar y siga el enlace al sitio donde podrá descargarlo.
    2. Siga las instrucciones del sitio para descargar el paquete de renovación de Edge Components.
    Nota:
    También puede descargar los últimos fixpack para Edge Components utilizando el servidor FTP para Edge Components.

    Actualización de Load Balancer para sistemas operativos AIX, HP-UX, Linux y Solaris

    Desinstalación de versiones anteriores de Load Balancer

    Antes de instalar un paquete de renovación o un fixpack, detenga y desinstale las versiones existentes de Load Balancer anteriores a la versión a la que desee actualizar.

    1. Colóquese en un indicador de mandatos con autoridad root.
    2. Haga una copia de seguridad de los archivos en otro directorio que crea y coloca en el directorio de instalación de Load Balancer. Además, valore la posibilidad de guardar los scripts de configuración de Load Balancer.
    3. Detenga el ejecutor de Load Balancer mediante el mandato siguiente:
      dscontrol executor stop
      

      El ejecutor de Load Balancer puede continuar en ejecución incluso si se detiene dsserver. Si recibe un mensaje que le informa que dsserver no se está ejecutando, inicie dsserver y vuelva a emitir el mandato.

    4. Detenga dsserver mediante el mandato siguiente:
      dsserver stop
      
    5. Desinstale todos los paquetes de Load Balancer utilizando los mandatos específicos de cada sistema que verá en la tabla siguiente.

    Tabla 4. Mandatos específicos del sistema para desinstalar Load Balancer

    Mandatos específicos del sistema para desinstalar Load Balancer
    Plataforma Mandatos
    AIX Desinstale todos los paquetes del producto Load Balancer utilizando el mandato siguiente:
    installp -u ibmlb
    
    HP-UX Desinstale todos los paquetes del producto Load Balancer utilizando el mandato siguiente:
    swremove ibmlb
    
    Linux
    1. Para buscar Load Balancer o paquetes relacionados instalados previamente, utilice el mandato siguiente:
      rpm -qa | grep ibmlb
      
    2. Desinstale cada paquete de Load Balancer. Utilice el siguiente mandato:
      rpm -e nombre_paquete
      

      donde nombre_paquete es el nombre del paquete concreto de Load Balancer.

    Nota:
    Para desinstalar paquetes individuales, elimine los paquetes en el orden inverso en el que se instalaron.
    Solaris
    1. Para buscar Load Balancer o paquetes relacionados instalados previamente, utilice el mandato siguiente:
      pkginfo | grep ibmlb
      
    2. Desinstale cada paquete de Load Balancer. Utilice el siguiente mandato:
      pkgrm nombre_paquete
      

      donde nombre_paquete es el nombre del paquete concreto de Load Balancer.

    Instalación del paquete de renovación o del fixpack de Load Balancer

    Si no ha instalado Load Balancer, sólo es necesario instalar el archivo de licencia para Load Balancer, es decir lb70Full.LIC, antes de instalar un paquete de renovación o un fixpack. Puede obtener la licencia si instala el paquete de licencia para Load Balancer.

    Para instalar un paquete de renovación o un fixpack:

    1. Colóquese en un indicador de mandatos con autoridad root.
    2. Obtenga el paquete de renovación o el fixpack para Load Balancer y colóquelo en un directorio temporal.
    3. Descomprima y desempaquete el paquete de compilación. De esta manera se generan varios conjuntos de archivos individuales.
    4. Instale el software utilizando los mandatos específicos de cada sistema que verá en la tabla siguiente. Consulte la lista de paquetes para conocer el orden de instalación de los conjuntos de archivos.

      Tabla 5. Mandatos específicos del sistema para instalar un paquete de renovación o un fixpack

      Mandatos específicos del sistema para instalar un paquete de renovación o un fixpack
      Sistema Mandatos
      AIX
      1. Genere un archivo .toc file, si no existe ya, mediante el mandato:
        inutoc
        
      2. Instale los paquetes para Load Balancer. Por ejemplo, para instalar el paquete base a partir del directorio activo, emita el mandato siguiente:
        installp -acXd . ibmlb.base.rte
        
      HP-UX
      swinstall -s /origen nombre_paquete
      

      donde origen es el directorio de la ubicación del paquete y nombre_paquete es el nombre del paquete.

      Por ejemplo, para instalar el paquete base a partir del directorio activo, emita el mandato siguiente:

      swinstall -s /lb ibmlb.base
      
      Linux
      rpm -iv nombre_paquete
      

      donde nombre_paquete es el nombre del paquete.

      Por ejemplo, con el mandato siguiente se instalan todos los paquetes para Load Balancer cuando estos paquetes se encuentran en el directorio activo:

      rpm -iv ibmlb*.rpm
      
      Nota:
      Puede utilizar la opción -nodeps para instalar correctamente todos los paquetes en cualquier orden.
      Solaris
      pkgadd -d nombreVíaAcceso nombre_paquete
      

      donde nombreVíaAcceso es el directorio de la ubicación del paquete y nombre_paquete es el nombre del paquete.

      Por ejemplo, para instalar el paquete de administración a partir del directorio activo, emita el mandato siguiente:

      pkgadd -d . ibmlbadm
      
    5. Restaure los archivos de configuración y los scripts de inicio que haya guardado o modificado durante una desinstalación anterior.

    En esta tabla se enumeran todos los paquetes que se entregan con Edge Components y el orden de instalación necesario. Instale los paquetes que se incluyen en el paquete de renovación o en el fixpack según el orden que se especifica en la tabla siguiente.

    Nota:
    No todos los paquetes incluidos en esta lista se entregan con el paquete de renovación o con el fixpack. Actualice sólo los paquetes que se incluyen con el paquete de renovación o el fixpack y que estaban instalados en el sistema.

    Tabla 6. Lista de paquetes

    Lista de paquetes
    Componentes instalados Actualice los paquetes en este orden (enumerados genéricamente)
    • Dispatcher
    • CBR (Content Based Routing)
    • Site Selector
    • Cisco CSS Controller
    • Nortel Alteon Controller
    • Metric Server
    • Documentación de Load Balancer

    1. Base
    2. Administración
    3. Licencia
    4. Controlador de dispositivo (sólo AIX)
    5. Componente(s) LB
    6. Metric Server
    7. Documentación de Load Balancer (idioma)

    Documentación de Edge Components doc-idioma

    Actualización de Load Balancer para sistemas operativos Windows

    Utilice el programa de configuración para Edge Components para actualizar tal como se muestra a continuación

    1. Para evitar que se inicie el Load Balancer actualmente instalado, edite los scripts de inicio que haya creado para suprimir, de manera temporal, los mandatos que iniciarían Load Balancer al rearrancar.
    2. Asegúrese de que el servicio de Load Balancer está establecido en Manual.
    3. Reinicie la máquina Windows.
    4. Descargue el paquete de renovación o el fixpack de Edge Components.
    5. Utilice la opción Añadir/Eliminar programas en el panel de control de Windows para desinstalar el componente actual de Load Balancer, de tenerlo.
    6. Ejecute el programa de instalación mediante una de las acciones siguientes:
      1. Desde un indicador de mandatos:
        1. Vaya al directorio /lb y escriba setup.
        2. Para un paquete de renovación, vaya al directorio /lb y escriba setup. Para un fixpack de Load Balancer, descomprima el paquete que ha descargado en una carpeta y escriba setup en dicha carpeta.
      2. En el menú Inicio:
        1. Seleccione Ejecutar.
        2. Seleccione Examinar.
          • Para instalar Caching Proxy y Load Balancer, o sólo Caching Proxy, seleccione el directorio que contiene los archivos de instalación para el sistema operativo específico y seleccione setup.
          • Para instalar sólo Load Balancer:
            1. Para un paquete de renovación, vaya al directorio /lb y seleccione setup. Para un fixpack, el paquete de Load Balancer contiene sólo los archivos de instalación de Load Balancer y no incluye la carpeta /lb. Seleccione los archivos de instalación para el sistema operativo concreto y seleccione setup.
        3. Pulse Abrir.
        4. Pulse Aceptar.
    7. Escriba la información tal como lo solicite el programa de instalación.

    Rechazo de una actualización

    Para muchos componentes, al eliminar el paquete de renovación o el fixpack, los archivos de configuración se guardan en el directorio oldfiles/component. Puede emplear estos archivos de configuración con la versión que vuelve a instalar del producto para mantener la configuración con parches en la versión anterior a la aplicación de los parches. Para el componente Load Balancer, debe guardar manualmente los archivos de configuración para mantener la configuración anterior a la aplicación de parches.


    Componente Dispatcher

    Esta parte proporciona información sobre la configuración de inicio rápido, consideraciones de planificación y describe los métodos para configurar el componente Dispatcher de Load Balancer. Contiene los capítulos siguientes:


    Configuración de inicio rápido

    Este ejemplo de inicio rápido muestra cómo configurar tres estaciones de trabajo conectadas localmente utilizando el método de reenvío mac del componente Dispatcher para equilibrar la carga del tráfico de la Web entre dos servidores Web. La configuración debería ser básicamente igual para equilibrar cualquier otro tráfico de aplicación TCP o UDP sin estado.

    Figura 8. Configuración local sencilla de Dispatcher

    Un gráfico que muestra un Cliente, una nube de Internet, una máquina de Load Balancer y dos servidores adjuntos localmente con las direcciones identificadas.

    El método de reenvío mac es el método predeterminado por medio del cual Dispatcher equilibra la carga de peticiones entrantes al servidor y el servidor devuelve la respuesta directamente al cliente. Para obtener más información sobre el método de reenvío MAC de Dispatcher, consulte el apartado Direccionamiento a nivel de MAC de Dispatcher (método de reenvío mac).

    Nota:
    La configuración se puede completar utilizando sólo dos estaciones de trabajo con Dispatcher ubicado en una de las estaciones de trabajo del servidor Web. Esta configuración representa una configuración colocada. Podrá encontrar procedimientos para establecer configuraciones más complejas en el apartado Configuración de la máquina Dispatcher.

    Qué necesita

    Para el ejemplo de inicio rápido, necesita tres estaciones de trabajo y cuatro direcciones IP. Una estación de trabajo es la máquina de Dispatcher; la otras dos son los servidores Web. Cada servidor Web requiere una dirección IP. La estación de trabajo de Dispatcher requiere dos direcciones: la dirección de no reenvío (NFA) y la dirección del clúster (la dirección en la que se equilibra la carga) que puede proporcionar a clientes para acceder al sitio web.

    Nota:
    NFA es la dirección que el mandato hostname devuelve. Esta dirección se utiliza para fines administrativos, como la configuración remota.

    Preparativos

    1. Para este ejemplo de configuración conectada localmente, configure las estaciones de trabajo en el mismo segmento de la LAN. Asegúrese de que el tráfico de red entre las tres máquinas no tenga que pasar por direccionadores o puentes. (Para establecer configuraciones con servidores remotos, consulte el apartado Configurar soporte de Dispatcher de área amplia).
    2. Configure los adaptadores de red de las tres estaciones de trabajo. Para este ejemplo, suponga que tiene la configuración de red siguiente:
      Estación de trabajo Nombre Dirección IP
      1 servidor1.Intersplashx.com 9.47.47.101
      2 servidor2.Intersplashx.com 9.47.47.102
      3 servidor3.Intersplashx.com 9.47.47.103
      Máscara de red = 255.255.255.0

      Cada una de las estaciones de trabajo sólo contiene una tarjeta de interfaz de red Ethernet estándar.

    3. Asegúrese de que servidor1.Intersplashx.com puede ejecutar ping de servidor2.Intersplashx.com y servidor3.Intersplashx.com.
    4. Asegúrese de que servidor2.Intersplashx.com y servidor3.Intersplashx.com pueden ejecutar ping de servidor1.Intersplashx.com.
    5. Asegúrese de que los contenidos son idénticos en los dos servidores Web (Servidor 2 y Servidor 3). Esto puede conseguirse duplicando los datos de ambas estaciones de trabajo, utilizando un sistema de archivos compartido tal como NFS, AFS(R) o DFS(TM) o bien por cualquier otro medio apropiado para el sitio.
    6. Asegúrese de que los servidores Web en servidor2.Intersplashx.com y servidor3.Intersplashx.com son operacionales. Utilice un navegador Web para solicitar páginas directamente de http://servidor2.Intersplashx.com y http://servidor3.Intersplashx.com .
    7. Obtenga otra dirección IP válida para este segmento de la LAN. Esta será la dirección que proporcionará a los clientes que deseen acceder a su sitio. Para este ejemplo utilizará:
      Name= www.Intersplashx.com
      IP=9.47.47.104 
      
    8. Configure las dos estaciones de trabajo de servidor Web para aceptar tráfico de www.Intersplashx.com.

      Añada un alias para www.Intersplashx.com a la interfaz de bucle de retorno en servidor2.Intersplashx.com y servidor3.Intersplashx.com.

    9. Suprima cualquier ruta adicional que pueda haberse creado como resultado de añadir un alias a la interfaz de bucle de retorno. Consulte el apartado Paso 2. Comprobar si hay una ruta adicional

      Ahora ha completado todos los pasos de configuración que son necesarios en las dos estaciones de trabajo de servidor Web.


    Configuración del componente Dispatcher

    Con Dispatcher, puede crear una configuración mediante la línea de mandatos, el asistente de configuración o la interfaz gráfica de usuario (GUI).

    Nota:
    Los valores de los parámetros deben escribirse en caracteres del idioma inglés. Las únicas excepciones son los valores de parámetros para los nombres de host y de archivos.

    Configuración con la línea de mandatos

    Si va a utilizar la línea de mandatos, siga estos pasos:

    1. Inicie dsserver en Dispatcher:

    2. Inicie la función de ejecutor de Dispatcher:

      dscontrol executor start

    3. Añada la dirección de clúster a la configuración de Dispatcher:

      dscontrol cluster add www.Intersplashx.com

    4. Añada el puerto de protocolo HTTP a la configuración de Dispatcher:

      dscontrol port add www.Intersplashx.com:80

    5. Añada cada uno de los servidores web a la configuración de Dispatcher:

      dscontrol server add www.Intersplashx.com:80:servidor2.Intersplashx.com

      dscontrol server add www.Intersplashx.com:80:servidor3.Intersplashx.com

    6. Configure la estación de trabajo de manera que acepte tráfico para la dirección de clúster:

      dscontrol executor configure www.Intersplashx.com

    7. Inicie la función de gestor de Dispatcher:

      dscontrol manager start

      Dispatcher ahora equilibrará la carga según el rendimiento del servidor.

    8. Inicie la función de asesor de Dispatcher:

      dscontrol advisor start http 80

      Dispatcher se asegurará ahora de que las peticiones del cliente no se envíen a un servidor Web con anomalías.

    Ya se ha completado la configuración básica con los servidores conectados localmente.

    Comprobación de la configuración

    Compruebe si la configuración funciona:

    1. Desde el navegador Web, vaya a la ubicación http://www.Intersplashx.com . Si se visualiza una página, significa que la configuración funciona.
    2. Vuelva a cargar la página en el navegador Web.
    3. Observe los resultados de este mandato: dscontrol server report www.Intersplashx.com:80:. La columna de conexiones totales de los dos servidores debería sumarse a "2."

    Configuración con la interfaz gráfica de usuario (GUI)

    Para obtener información sobre cómo utilizar la GUI de Dispatcher, consulte los apartados GUI y Apéndice A. GUI: instrucciones generales.

    Asistente de configuración

    Si desea información sobre cómo utilizar el asistente de configuración, consulte el apartado Configuración con el asistente de configuración.


    Tipos de configuraciones de clúster, puerto y servidor

    Hay muchos modos de configurar Load Balancer para dar soporte a su sitio. Si sólo tiene un nombre de host para el sitio al que se conectarán todos sus clientes, puede definir un solo clúster de servidores. Para cada uno de estos servidores, configure el puerto a través del que Load Balancer se comunica. Vea la Figura 9.

    Ejemplo de Dispatcher configurado con un solo clúster y 2 puertos

    Configuración sencilla

    En este ejemplo del componente Dispatcher, se define un clúster en www.productworks.com. Este clúster tiene dos puertos: el puerto 80 para HTTP y el puerto 443 para SSL. Un cliente que solicita http://www.productworks.com (puerto 80) va a un servidor distinto que un cliente que solicita https://www.productworks.com (puerto 443).

    Podría resultar adecuado otro modo de configurar Load Balancer si tiene un sitio de un tamaño muy grande con muchos servidores dedicados a cada protocolo admitido. En este caso, quizá desee definir un clúster para cada protocolo con un solo puerto pero con muchos servidores, como se muestra en la Figura 10.

    Figura 10. Ejemplo de Dispatcher configurado con dos clústeres, cada uno con un puerto

    Configuración con dos clústeres, cada uno con un puerto

    En este ejemplo del componente Dispatcher, se definen dos clústeres: www.productworks.com para el puerto 80 (HTTP) y www.testworks.com para el puerto 443 (SSL).

    Podría ser necesario un tercer modo de configurar Load Balancer si el sitio alberga el contenido de varias empresas o departamentos, en el que cada uno entra al sitio con un URL distinto. En este caso, quizá desee definir un clúster para cada empresa o departamento y luego definir los puertos en los que va a recibir conexiones en ese URL, como se muestra en la Figura 11.

    Figura 11. Ejemplo de Dispatcher configurado con 2 clústeres, cada uno con 2 puertos

    Configuración con 2 clústeres, cada uno con 2 puertos

    En este ejemplo del componente Dispatcher, se definen dos clústeres con el puerto 80 para HTTP y el puerto 23 para Telnet para cada uno de los sitios en www.productworks.com y www.testworks.com.


    Planificación para Dispatcher

    En este capítulo se describe lo que debe tener en cuenta el planificador de la red antes de instalar y configurar el componente Dispatcher.

    Este capítulo incluye los apartados siguientes:

    Nota:
    En las versiones anteriores, cuando el producto se denominaba Network Dispatcher, el nombre del mandato de control de Dispatcher era ndcontrol. El nombre del mandato de control de Dispatcher ahora es dscontrol.

    Consideraciones de planificación

    Dispatcher consta de las funciones siguientes:

    Las tres funciones clave de Dispatcher (ejecutor, gestor y asesores) actúan conjuntamente para equilibrar y entregar las peticiones entrantes entre servidores. Junto con las peticiones de equilibrio de carga, el ejecutor supervisa el número de conexiones nuevas, de conexiones activas y de conexiones en un estado de finalizadas. El ejecutor también recoge la basura de conexiones finalizadas o restablecidas y suministra esta información al gestor.

    El gestor recopila información del ejecutor, los asesores y un programa de supervisión del sistema, como Metric Server. Basándose en la información que recibe, el gestor ajusta cómo se pesan las máquinas servidor en cada puerto y proporciona al ejecutor el nuevo cálculo de pesos para utilizarlo en el equilibrado de nuevas conexiones.

    Los asesores supervisan cada servidor en el puerto asignado para determinar el tiempo de respuesta del servidor y la disponibilidad, asimismo proporcionan esta información al gestor. Los asesores también supervisan si un servidor está activo o inactivo. Sin el gestor ni los asesores, el ejecutor realiza la planificación de turno rotativo según los pesos del servidor actuales.


    Métodos de reenvío

    Con Dispatcher, puede seleccionar uno entre tres métodos de reenvío especificados a nivel de puerto: reenvío MAC, reenvío NAT/NAPT o reenvío CBR (Content Based Routing).

    Direccionamiento a nivel de MAC de Dispatcher (método de reenvío mac)

    Con el método de reenvío MAC de Dispatcher (el método de reenvío predeterminado), Dispatcher equilibra la carga de la petición de entrada con el servidor seleccionado y el servidor devuelve la respuesta directamente al cliente sin la participación de Dispatcher. Con este método de reenvío, el Dispatcher sólo tiene en cuenta los flujos de entrada del cliente al servidor. No tiene que comprobar los flujos de salida del servidor al cliente. Esto reduce significativamente el impacto en la aplicación y puede producir un rendimiento de red mejorado.

    Se puede seleccionar el método de reenvío cuando se añade un puerto con el mandato dscontrol port add clúster:puerto method valor. El valor del método de reenvío predeterminado es mac. Puede especificar el parámetro del método sólo cuando se añade el puerto. Una vez que se ha añadido el puerto, no puede cambiar el valor del método de reenvío. Consulte el apartado dscontrol port -- configurar puertos para obtener más información.

    Limitación de Linux: los sistemas Linux utilizan un modelo según el host de anunciar direcciones de hardware a direcciones IP utilizando ARP. Este modelo es incompatible con el servidor final o los requisitos de ubicación compartida de alta disponibilidad para el método de reenvío mac de Load Balancer. Consulte el apartado Alternativas de alias de bucle de retorno de Linux cuando se utiliza el reenvío MAC de Load Balancer, donde se describen varias soluciones para alterar el comportamiento del sistema Linux con el fin de que sea compatible con el reenvío mac de Load Balancer.

    Limitación de Linux cuando se utilizan servidores zSeries o S/390: existen limitaciones cuando se utilizan servidores zSeries o S/390 que disponen de tarjetas OSA (Open System Adapter). Consulte el apartado Problema: en Linux, limitaciones cuando se utilizan servidores zSeries o S/390 que disponen de tarjetas OSA (Open System Adapter) para conocer posibles alternativas.

    NAT/NAPT de Dispatcher (método de reenvío nat)

    Con la posibilidad NAT (Network Address Translation) o NAPT (Network Address Port Translation) de Dispatcher se elimina la limitación para servidores de equilibrio de carga de estar ubicados en una red conectada localmente. Si desea tener servidores situados en ubicaciones remotas, puede utilizar la técnica de método de reenvío NAT en lugar de utilizar una técnica de encapsulación GRE/WAN. También puede utilizar la característica NAPT para acceder a varios daemons del servidor que residen en cada máquina servidor con equilibrio de carga, donde cada daemon está a la escucha en un puerto único.

    Puede configurar un servidor con varios daemons de dos modos distintos:

    Esta aplicación funciona bien con protocolos de aplicación de nivel superior como HTTP, SSL, IMAP, POP3, NNTP, SMTP, Telnet, etc.

    Limitaciones:

    Necesitará tres direcciones IP para la máquina de Dispatcher: dirección nfa, dirección del clúster y dirección de retorno. Para implementar NAT/NAPT, realice lo siguiente (consulte también el apartado Pasos de ejemplo para configurar los métodos de reenvío nat o cbr de Dispatcher):

    Direccionamiento basado en contenido de Dispatcher (método de reenvío cbr)

    El componente Dispatcher permite realizar direccionamiento basado en contenido para HTTP (con la regla de tipo "content" (contenido) y HTTPS (con afinidad de ID de sesión SSL) sin tener que utiliza Caching Proxy. Para el tráfico de HTTP y HTTPS, el método de reenvío cbr de componente Dispatcher puede proporcionar un direccionamiento basado en contenido más rápido que el componente CBR, que requiere Caching Proxy.

    Para HTTP: la selección de servidor para el direccionamiento basado en contenido de Dispatcher se basa en el contenido de una dirección URL o de una cabecera HTTP. Se configura utilizando la regla de tipo "content" (contenido). Cuando configure la regla de contenido, especifique la serie de búsqueda "patrón" y un conjunto de servidores en la regla. Cuando se procesa una nueva petición de entrada, esta regla compara la serie especificada con el URL del cliente o con la cabecera HTTP especificada de la petición del cliente.

    Si Dispatcher encuentra la serie en la petición del cliente, reenvía la petición a uno de los servidores dentro de la regla. Luego Dispatcher transmite los datos de respuesta del servidor al cliente (método de reenvío "cbr").

    Si Dispatcher no encuentra la serie en la petición del cliente, no selecciona un servidor del conjunto de servidores dentro de la regla.

    Nota:
    La regla de contenido se configura en el componente Dispatcher del mismo modo que se configura en el componente CBR. Dispatcher puede utilizar la regla de contenido para el tráfico HTTP. No obstante, el componente CBR puede utilizar la regla de contenido para los dos tipos de tráfico, HTTP y HTTPS (SSL).

    Para HTTPS (SSL): CBR (Content Based Routing) de Dispatcher equilibra la carga basándose en el campo de ID de sesión SSL de la petición de cliente. Con SSL, una petición de cliente contiene el ID de sesión SSL de una sesión anterior y los servidores mantienen una memoria caché de sus conexiones SSL anteriores. La afinidad de sesiones de ID de SSL de Dispatcher permite al cliente y el servidor establecer una nueva conexión utilizando los parámetros de seguridad de la conexión anterior con el servidor. Al eliminar la renegociación de parámetros de seguridad SSL, como claves compartidas y algoritmos de cifrado, los servidores ahorran ciclos de CPU y el cliente obtiene una respuesta más rápida. Para habilitar la afinidad de ID de sesión SSL: el tipo de protocolo especificado para el puerto debe ser SSL y el tiempo de permanencia en memoria del puerto stickytime no puede establecerse en un valor cero. Si se ha superado el tiempo de permanencia en memoria, el cliente debe enviarse a un servidor distinto del anterior.

    Necesitará tres direcciones IP para la máquina de Dispatcher: dirección nfa, dirección del clúster y dirección de retorno. Para implementar el direccionamiento basado en contenido de Dispatcher (consulte también el apartado Pasos de ejemplo para configurar los métodos de reenvío nat o cbr de Dispatcher):

    Nota:
    La característica de réplica del registro de conexión de alta disponibilidad (que asegura que no se eliminará una conexión de cliente cuando una máquina Dispatcher de reserva se haga con el control de la máquina primaria) no se admite con direccionamiento basado en contenido de Dispatcher.

    Pasos de ejemplo para configurar los métodos de reenvío nat o cbr de Dispatcher

    Figura 12. Ejemplo de utilización de los métodos de reenvío nat o cbr de Dispatcher

    Configuración para utilizar el reenvío nat o cbr de Dispatcher

    Necesitará al menos tres direcciones IP para la máquina de Dispatcher. Para la Figura 12, son necesarios estos pasos con el fin de configurar mínimamente los métodos de reenvío nat o cbr de Dispatcher:

    1.Inicie el ejecutor
    dscontrol executor start
     
    2.Defina la pasarela de cliente
      dscontrol executor set clientgateway 1.2.3.5
      NOTA: si la subred no tiene un direccionador local, debe configurar una máquina
            para que realice IP Forwarding (reenvío IP) y lo utilice como la
            clientgateway (pasarela de cliente). Consulte la documentación del sistema 
            operativo para determinar cómo habilitar IP Forwarding.
     
    3.Defina la dirección del clúster
      dscontrol cluster add 1.2.3.44
     
    4.Configure la dirección del clúster
      dscontrol executor configure 1.2.3.44
     
    5.Defina el puerto con un método de nat o cbr
      dscontrol port add 1.2.3.44:80 method nat
      o bien
      dscontrol port add 1.2.3.44:80 method cbr protocol http
     
    6.Configure una dirección de retorno de alias en Load Balancer (utilizando la
      tarjeta Ethernet 0)
      NOTA: En sistemas Linux, no es necesario poner un alias a la dirección de retorno
      si utiliza el reenvío nat en una máquina con ubicación compartida.
     
      dscontrol executor configure 10.10.10.99
     
      O bien, utilice el mandato ifconfig (sólo para Linux o UNIX):
      AIX: ifconfig en0 alias 10.10.10.99 netmask 255.255.255.0
      HP-UX: ifconfig lan0:1 10.10.10.99 netmask 255.255.255.0 up
      Linux: ifconfig eth0:1 10.10.10.99 netmask 255.255.255.0 up
      Solaris: ifconfig eri0 addif 10.10.10.99 netmask 255.255.255.0 up
     
    7.Defina los servidores finales
      dscontrol server add 1.2.3.4:80:192.10.10.10
        router 10.10.10.6 returnaddress 10.10.10.99 
     
    

    La pasarela de cliente (1.2.3.5) es la dirección 1 del direccionador entre Load Balancer y el cliente. El direccionador (10.10.10.6) es la dirección 2 del direccionador entre Load Balancer y el servidor final. Si no está seguro de la clientgateway o de la dirección 2 del direccionador, puede utilizar un programa traceroute con la dirección del cliente (o servidor) para determinar la dirección del direccionador. La sintaxis exacta de este programa diferirá según el sistema operativo que se utilice. Debería consultar la documentación del sistema operativo para obtener más información con respecto a este programa.

    Si el servidor se encuentra en la misma subred que Load Balancer (es decir, no se devuelve ningún direccionador con traceroute) escriba la dirección del servidor como la dirección del direccionador. Sin embargo, si el servidor se encuentra en la misma máquina que Load Balancer, la dirección del direccionador debe especificarse en el campo de direccionador en lugar de la dirección del servidor. La dirección del direccionador es la que se utiliza en el mandato "server add" en la máquina Load Balancer del paso 7.


    Creación de particiones del servidor: servidores lógicos configurados con un servidor físico (dirección IP)

    Con la creación de particiones del servidor, puede distinguir más entre los URL en particular y sus aplicaciones específicas. Por ejemplo, un servidor Web puede servir páginas JSP, páginas HTML, archivos GIF, peticiones de base de datos, etc. Load Balancer ahora proporciona la posibilidad de crear una partición de un clúster y un servidor específico de un puerto en varios servidores lógicos. Esto permite asesorar sobre un servicio en particular en la máquina para detectar si se ejecuta más rápido un motor de servlets o una petición de base de datos, o si no se ejecuta nada.

    La creación de particiones del servidor permite a Load Balancer detectar, por ejemplo, que el servicio HTML atiende páginas rápidamente, pero que la conexión de la base de datos se ha quedado inactiva. Esto permite distinguir la carga según una carga de trabajo específica de servicio granular, en lugar del peso en todo el servidor únicamente.

    Creación de particiones del servidor con asesores HTTP o HTTPS

    La creación de particiones del servidor puede resultar de utilidad cuando se utiliza junto con asesores HTTP y HTTPS. Por ejemplo, cuando dispone de un servidor HTML que gestiona páginas HTML, GIF y JSP, si define (añadiendo) el servidor una vez bajo el puerto 80, recibirá sólo un valor de carga para todo el servidor HTTP. Esto podría ser confuso dado que es posible que el servicio GIF no esté funcionando en el servidor. Dispatcher aún envía páginas GIF al servidor, pero el cliente detecta un tiempo de espera excedido o una anomalía.

    Si define el servidor tres veces (por ejemplo, ServerHTML, ServerGIF, ServerJSP) bajo el puerto y define el parámetro advisorrequest del servidor con una serie distinta para cada servidor lógico, podrá consultar el estado del servicio en particular en el servidor. ServerHTML, ServerGIF y ServerJSP representan tres servidores lógicos de partición de un servidor físico. Para ServerJSP, puede definir la serie advisorrequest para consultar el servicio en la máquina que gestiona páginas JSP. Para ServerGIF, puede definir la serie advisorrequest para consultar el servicio GIF. Y para ServerHTML, puede definir advisorrequest para consultar el servicio HTML. Por lo tanto, si el cliente no obtiene respuesta de advisorrequest para consultar el servicio GIF, Dispatcher marcará ese servidor lógico (ServerGIF) como inactivo, mientras que los otros dos servidores lógicos podrían funcionar bien. Dispatcher no reenvía ningún GIF más al servidor físico, pero aún puede enviar peticiones JSP y HTML al servidor.

    Para obtener más información sobre el parámetro advisorrequest, consulte el apartado Configuración del asesor HTTP o HTTPS utilizando la opción de petición y respuesta (URL).

    Ejemplo para configurar un servidor físico en servidores lógicos

    Dentro de la configuración de Dispatcher, puede representar un servidor físico o uno lógico utilizando la jerarquía de clúster:puerto:servidor. El servidor puede ser una dirección IP única de la máquina (servidor físico) con un nombre simbólico o en un formato de dirección IP. O bien, si define el servidor para representar un servidor con particiones, debe proporcionar una dirección del servidor resoluble para el servidor físico en el parámetro address del mandato dscontrol server add. Consulte el apartado dscontrol server -- configurar servidores para obtener más información.

    A continuación figura un ejemplo de cómo crear particiones físicas de servidores en servidores lógicos para gestionar distintos tipos de peticiones.

    Cluster: 1.1.1.1
            Port:  80
                 Server: A (IP address 1.1.1.2)
                           HTML server
                 Server: B (IP address 1.1.1.2)
                           GIF server
                 Server: C (IP address 1.1.1.3)
                           HTML server
                 Server: D (IP address 1.1.1.3)
                           JSP server
                 Server: E (IP address 1.1.1.4)
                           GIF server
                 Server: F (IP address 1.1.1.4)
                           JSP server
            Rule1: /*.htm
                 Server: A
                 Server: C
            Rule2: /*.jsp
                 Server: D
                 Server: F
            Rule3: /*.gif
                 Server: B
                 Server: E 
    

    En este ejemplo, el servidor 1.1.1.2 se divide en 2 servidores lógicos de partición: "A" (que gestiona peticiones HTML) y "B" (que gestiona peticiones GIF). El servidor 1.1.1.3 se divide en 2 servidores lógicos de partición: "C" (que gestiona las peticiones HTML) y "D" (que gestiona las peticiones JSP). El servidor 1.1.1.4 se divide en 2 servidores lógicos de partición: "E" (que gestiona las peticiones GIF) y "F" (gestiona las peticiones JSP).


    Alta disponibilidad

    Alta disponibilidad sencilla

    Figura 13. Ejemplo de Dispatcher con alta disponibilidad sencilla

    Dispatcher con configuración de alta disponibilidad sencilla

    La característica de alta disponibilidad conlleva el uso de una segunda máquina de Dispatcher. La primera máquina de Dispatcher realiza el equilibrio de carga para todo el tráfico del cliente del mismo modo que en una configuración de Dispatcher sencilla. La segunda máquina de Dispatcher supervisa el "estado" de la primera y se hace con el control de la tarea de equilibrio de carga si detecta que la primera máquina de Dispatcher ha producido un error.

    Se asigna a cada una de las dos máquinas un rol específico, ya sea primaria o reserva. La máquina primaria envía datos de conexión a la máquina de reserva de forma constante. Mientras que la primaria está activa (equilibrando la carga), la de reserva está en estado de espera, continuamente actualizada y preparada para hacerse con el control, si es necesario.

    Se hace referencia a las sesiones de comunicación entre las dos máquinas como pulsos. Los pulsos permiten que cada máquina supervise el estado de la otra.

    Si la máquina de reserva detecta que la máquina activa ha producido un error, se hará con el control y comenzará a equilibrar la carga. En el punto en que se invierten los estados de las dos máquinas: la máquina de reserva pasa a estar activa y la primaria pasa a estar en espera.

    En la configuración de alta disponibilidad, la máquina primaria y la de reserva deben estar en la misma subred con una configuración idéntica.

    Si desea información sobre cómo configurar la característica de alta disponibilidad, consulte el apartado Alta disponibilidad.

    Alta disponibilidad mutua

    Figura 14. Ejemplo de Dispatcher con alta disponibilidad mutua

    Dispatcher con configuración configuración de alta disponibilidad mutua

    La característica de alta disponibilidad mutua conlleva el uso de dos máquinas de Dispatcher. Las dos máquinas realizan de forma activa el equilibrio de carga del tráfico del cliente y las dos máquinas proporcionan una reserva entre sí. En una configuración de alta disponibilidad sencilla, sólo una máquina realiza el equilibrio de carga. En una configuración de alta disponibilidad mutua, las dos máquinas equilibran la carga de una parte del tráfico del cliente.

    Para la alta disponibilidad mutua, se asigna el tráfico del cliente a cada máquina de Dispatcher según la dirección del clúster. Cada clúster se puede configurar con NFA (dirección de no reenvío) de su Dispatcher primario. La máquina de Dispatcher primaria normalmente realiza el equilibrio de carga para ese clúster. En el caso de una anomalía, la otra máquina realiza el equilibrio de carga para su propio clúster y para el clúster del Dispatcher con anomalía.

    Si desea una ilustración de una configuración de alta disponibilidad mutua con un "conjunto de clústeres A" compartido y un "conjunto de clústeres B" compartido, consulte la Figura 14. Cada Dispatcher puede dirigir paquetes activamente para su clúster primario. Si el Dispatcher fuera a tener una anomalía y ya no pudiera dirigir más paquetes activamente para su clúster primario, entonces el otro Dispatcher podría hacerse con el control del direccionamiento de paquetes para su clúster de reserva.

    Nota:
    Las dos máquinas deben configurar sus conjuntos de clústeres compartidos del mismo modo. Es decir, los puertos utilizados y los servidores bajo cada puerto deben ser idénticos en las dos configuraciones.

    Si desea información sobre cómo configurar la alta disponibilidad y la alta disponibilidad mutua, consulte el apartado Alta disponibilidad.


    Configuración de Dispatcher

    Antes de llevar a cabo los pasos de este capítulo, consulte el apartado Planificación para Dispatcher. En este capítulo se explica cómo crear una configuración básica para el componente Dispatcher de Load Balancer.

    Nota:
    En las versiones anteriores, cuando el producto se denominaba Network Dispatcher, el nombre del mandato de control de Dispatcher era ndcontrol. El nombre del mandato de control de Dispatcher ahora es dscontrol.

    Visión general de las tareas de configuración

    Antes de empezar a realizar los pasos de configuración indicados en esta tabla, asegúrese de que la máquina Dispatcher y todas las máquinas de servidores están conectadas a la red, tienen direcciones IP válidas y que pueden enviar una sonda de paquetes Internet entre sí.

    Tabla 7. Tareas de configuración para la función Dispatcher

    Tarea Descripción Información relacionada
    Configurar la máquina Dispatcher.

    Configura la configuración de equilibrio de carga.

    Configuración de la máquina Dispatcher
    Configurar máquinas en las que se va a equilibrar la carga. Crea un alias para el dispositivo de bucle de retorno, comprueba si hay una ruta adicional y suprime todas las rutas adicionales. Configuración de máquinas de servidor para el equilibrio de carga

    Métodos de configuración

    Hay cuatro métodos básicos para la configuración de Dispatcher:

    Línea de mandatos

    Es la manera más directa que configurar Dispatcher. Los valores de los parámetros de mandatos deben especificarse en caracteres del idioma inglés. Las únicas excepciones son los nombres de host (que se utilizan en los mandatos cluster, server y highavailability) y nombres de archivo (que se utilizan en los mandatos de archivo).

    Para iniciar Dispatcher desde la línea de mandatos:

    1. Emita el mandato dsserver en el indicador de mandatos. Para detener el servicio, escriba: dsserver stop
      Nota:
      En sistemas Windows, pulse Inicio > Configuración (en Windows 2000) > Panel de control > Herramientas administrativas > Servicios. Pulse con el botón derecho del ratón en IBM Dispatcher y seleccione Iniciar. Para detener el servicio, efectúe los mismos pasos y seleccione Detener.
    2. A continuación, emita los mandatos de control de Dispatcher que desee para definir la configuración. En los procedimientos de esta publicación se da por supuesto que se utiliza la línea de mandatos. El mandato es dscontrol. Para obtener más información sobre los mandatos, consulte el apartado Referencia de mandatos para Dispatcher y CBR.

    Puede utilizar una versión minimizada de los parámetros del mandato dscontrol escribiendo las letras exclusivas de los parámetros. Por ejemplo, para obtener ayuda sobre el mandato para guardar archivos, puede escribir dscontrol he f en lugar de dscontrol help file.

    Para iniciar la interfaz de línea de mandatos, emita dscontrol para recibir un indicador de mandatos de dscontrol.

    Para finalizar la interfaz de línea de mandatos, emita exit o quit.

    Scripts

    Puede entrar mandatos para configurar Dispatcher en un archivo de script de configuración y ejecutarlos juntos. Consulte el apartado Archivos de configuración de ejemplo de Load Balancer.

    Nota:
    Para ejecutar rápidamente el contenido de un archivo de script (por ejemplo, miscript), use cualquiera de los siguientes mandatos:

    Para guardar la configuración actual en un archivo de script (por ejemplo, guardascript), ejecute el siguiente mandato:

    dscontrol file save guardascript
    

    Este mandato guardará el archivo de script de configuración en el directorio ...ibm/edge/lb/servers/configurations/dispatcher.

    GUI

    Para obtener instrucciones generales y un ejemplo de la interfaz gráfica de usuario (GUI), consulte la Figura 41.

    Para iniciar la GUI, siga estos pasos:

    1. Asegúrese de que dsserver se está ejecutando
    2. Efectúe una de las siguientes acciones, en función del sistema operativo:

    Para configurar el componente Dispatcher desde la GUI, primero debe seleccionar Dispatcher en la estructura de árbol. Inicie el ejecutor y el gestor una vez que se ha conectado a un host. También puede crear clústeres que contengan puertos y servidores, así como iniciar asesores para el gestor.

    La GUI puede utilizarse para llevar a cabo las mismas tareas que realizaría con el mandato dscontrol. Por ejemplo, para definir un clúster mediante la línea de mandatos, especifique el mandato dscontrol cluster add clúster. Para definir un clúster desde la GUI, pulse con el botón derecho en el Ejecutor y, en el menú emergente, pulse Añadir clúster. Escriba la dirección del clúster en la ventana emergente y pulse Aceptar.

    Los archivos de configuración de Dispatcher preexistentes pueden cargarse con las opciones Cargar nueva configuración (para sustituir completamente la configuración actual) y Añadir a la configuración actual (para actualizar la configuración actual) que aparecen el menú emergente Host. Debe guardar de forma periódica la configuración de Dispatcher en un archivo con la opción Guardar archivo de configuración como que también se encuentra en el menú emergente Host. El menú Archivo situado en la parte superior de la GUI, permite guardar en un archivo las conexiones actuales del host o restaurar conexiones que se encuentran en archivos existentes en todos los componentes de Load Balancer.

    Los mandatos de configuración también pueden ejecutarse de forma remota. Para obtener más información, consulte el apartado Remote Method Invocation (RMI).

    Para poder ejecutar un mandato desde la GUI: resalte el nodo Host en el árbol de la GUI y seleccione Enviar mandato... en el menú emergente Host. En el campo de entrada de mandatos, escriba el mandato que desea ejecutar, por ejemplo: executor report. El resultado y el historial de los mandatos se ejecutan en la sesión actual y aparecen en la ventana que se proporciona.

    Para acceder a la Ayuda, pulse el icono de signo de interrogación situado en la esquina superior derecha de la ventana de Load Balancer.

    Para obtener más información sobre cómo utilizar la GUI, consulte el Apéndice A. GUI: instrucciones generales.

    Configuración con el asistente de configuración

    Si va a utilizar el asistente de configuración, siga estos pasos:

    1. Inicie dsserver en Dispatcher:

    2. Inicie la función de asistente de Dispatcher, dswizard.

    El asistente le guiará, paso a paso, a través del proceso de creación de una configuración básica para el componente Dispatcher. Se formularán preguntas sobre la red. Se le orientará a lo largo de la configuración de un clúster para que Dispatcher equilibre la carga del tráfico de un grupo de servidores.


    Configuración de la máquina Dispatcher

    Antes de configurar la máquina Dispatcher, debe establecer el usuario root (en sistemas AIX, HP-UX, Linux o Solaris) o el administrador en sistemas Windows.

    En todas las plataformas soportadas, Load Balancer puede tener un servidor con ubicación compartida . Ubicación compartida significa que Load Balancer puede residir físicamente en una máquina servidor en la que se está efectuando el equilibrio de carga.

    En la máquina Dispatcher, al utilizar el método de reenvío MAC, como mínimo se necesitan dos direcciones IP válidas. Para CBR o el método de reenvío NAT, cómo mínimo se necesitarán tres direcciones IP válidas.

    Sólo sistemas Solaris:

    Asegúrese de que IP Forwarding no está habilitado para el protocolo TCP/IP.

    En la Figura 15 se muestra un ejemplo de Dispatcher configurado con un solo clúster, dos puertos y tres servidores.

    Figura 15. Ejemplo de las direcciones IP necesarias para la máquina Dispatcher


    Para obtener ayuda sobre los mandatos utilizados en este procedimiento, consulte el apartado Referencia de mandatos para Dispatcher y CBR.

    Para ver un archivo de configuración de ejemplo, consulte el apartado Archivos de configuración de ejemplo de Load Balancer.

    Paso 1. Iniciar la función de servidor

    Sistemas AIX, HP-UX, Linux o Solaris: para iniciar la función de servidor, escriba dsserver.

    Sistemas Windows: la función de servidor se inicia automáticamente como un servicio.

    Nota:
    Un archivo de configuración predeterminado (default.cfg) se carga de forma automática al iniciar dsserver. Si el usuario decide guardar la configuración de Dispatcher en default.cfg, todo lo que se guarde en este archivo se carga automáticamente la próxima vez que se inicie dsserver.

    Paso 2. Iniciar la función de ejecutor

    Para iniciar la función de ejecutor, escriba el mandato dscontrol executor start. En este momento también puede cambiar varios valores del ejecutor. Consulte el apartado Referencia de mandatos para Dispatcher y CBR.

    Paso 3. Definir la dirección de no reenvío (si es distinta del nombre de host)

    La dirección de no reenvío se utiliza para conectarse a la máquina para fines administrativos, como la utilización de Telnet o SMTP para esta máquina. De manera predeterminada esta dirección es el nombre de host.

    Para definir la dirección de no reenvío, escriba el mandato dscontrol executor set nfa dirección_IP o edite el archivo de configuración de ejemplo. dirección_IP es el nombre simbólico o la dirección IP.

    Paso 4. Definir un clúster y establecer opciones de clúster

    Dispatcher equilibrará las peticiones enviadas a la dirección del clúster para los servidores configurados en los puertos de dicho clúster.

    El clúster es el nombre simbólico, la dirección decimal separada por puntos o la dirección especial 0.0.0.0 que define un clúster comodín. Para definir un clúster, emita el mandato dscontrol cluster add. Para establecer las opciones del clúster, emita el mandato dscontrol cluster set o puede utilizar la GUI para emitir mandatos. Los clústeres comodín pueden utilizarse para emparejar varias direcciones IP para los paquetes entrantes sobre los cuales se realizará un equilibrio de carga. Consulte los apartados Utilizar un clúster comodín para combinar configuraciones de servidores, Utilizar un clúster comodín para equilibrar la carga de cortafuegos y Utilizar el clúster comodín con Caching Proxy para un proxy transparente para obtener más información.

    Paso 5. Crear un alias para la tarjeta de interfaz de red

    Después de definir el clúster, normalmente debe configurar la dirección del clúster en una de las tarjetas de interfaz de red de la máquina Dispatcher. Para ello, emita el mandato dscontrol executor configure dirección_clúster. Este buscará un adaptador con una dirección existente que pertenezca a la misma subred que la dirección del clúster. A continuación, emitirá el mandato de configuración del adaptador del sistema operativo utilizando el adaptador que ha encontrado y la máscara de red correspondiente a la dirección existente encontrada en dicho adaptador. Por ejemplo:

    dscontrol executor configure 204.67.172.72 
    

    No se recomienda configurar la dirección del clúster en los casos de clústeres añadidos a un servidor en espera en modalidad de alta disponibilidad o de clústeres añadidos a un sistema Dispatcher de área amplia que actúa como servidor remoto. Tampoco es necesario ejecutar el mandato executor configure si utiliza el script goIdle de ejemplo en modalidad autónoma. Para obtener información sobre el script goIdle, utilice Utilización de scripts.

    En contadas ocasiones es posible que tenga una dirección de clúster que no coincida con ninguna subred para las direcciones existentes. En este caso, utilice la segunda forma del mandato executor configure y proporcione de forma explícita el nombre de interfaz y la máscara de red. Utilice dscontrol executor configure dirección_interfaz nombre_interfaz máscara_red.

    Algunos ejemplos son:

    dscontrol executor configure 204.67.172.72 en0 255.255.0.0 
    (Sistemas AIX)
    dscontrol executor configure 204.67.172.72 eth0:1 255.255.0.0 
    (Sistemas Linux)
    dscontrol executor configure 204.67.172.72 eri0 255.255.0.0 
    (Sistemas Solaris)
    dscontrol executor configure 204.67.172.72 en1 255.255.0.0 
    (Sistemas Windows)
     
    

    Sistemas Windows

    Para utilizar la segunda forma del mandato executor configure en sistemas Windows, debe determinar el nombre de interfaz que utilizará. Si la máquina sólo tiene una tarjeta Ethernet, el nombre de interfaz es en0. Si sólo tiene una tarjeta Token Ring, el nombre de interfaz es tr0. Si tiene varias tarjetas de cualquiera de los dos tipos, será necesario determinar la correlación de las tarjetas. Siga estos pasos:

    1. En la línea de mandatos, inicie el ejecutor: dscontrol executor start
    2. Ejecute el mandato: dscontrol executor xm 1

    La salida se mostrará en la pantalla. Para determinar el nombre de interfaz que debe utilizarse para la configuración de Load Balancer, busque la dirección IP de la máquina de Load Balancer en las líneas que figuran a continuación de Number of NIC records.

    La dirección IP de la máquina de Load Balancer aparecerá como: ia->ia_addr El nombre de la interfaz asociada aparecerá como: ifp->if_name.

    Los nombres asignados por el mandato executor configure están correlacionados con los nombres de interfaz listados en este mandato.

    Después de obtener esta información de correlación, puede crear un alias en la interfaz de red para la dirección del clúster.

    Utilización de mandatos ifconfig para configurar alias de clúster

    En sistemas Linux o UNIX(R), el mandato executor configure ejecuta mandatos ifconfig.

    Sistemas Solaris y HP-UX

    Al utilizar aplicaciones de servidor específicas del enlace que enlazan a una lista de direcciones IP que no contienen el IP del servidor, utilice el mandato arp publish en lugar de ifconfig para establecer de forma dinámica una dirección IP en la máquina Load Balancer. Por ejemplo:

     arp -s <clúster> <dirección MAC de Load Balancer> pub
    

    Paso 6. Definir puertos y establecer opciones de puertos

    Para definir un puerto, escriba el mandato dscontrol port add clúster:puerto, edite el archivo de configuración de ejemplo o utilice la GUI. Clúster es el nombre simbólico o la dirección IP. Puerto es el número del puerto que utiliza para dicho protocolo. En este momento también puede cambiar varios valores del puerto. Debe definir y configurar todos los servidores para un puerto. Consulte el apartado Referencia de mandatos para Dispatcher y CBR.

    El número de puerto 0 (cero) se utiliza para especificar un puerto comodín. Este puerto aceptará tráfico para un puerto que no esté destinado a ninguno de los puertos definidos en el clúster. El puerto comodín se utiliza para configurar reglas y servidores para cualquier puerto. Esta función también puede utilizarse si tiene una configuración de servidor y regla idéntica para varios puertos. El tráfico de un puerto podría afectar a las decisiones de equilibrio de carga para el tráfico en otros puertos. Consulte el apartado Utilizar el puerto comodín para dirigir el tráfico de puerto no configurado para obtener más información sobre cuándo utilizar un puerto comodín.

    Paso 7. Definir máquinas servidor con equilibrio de carga

    Para definir una máquina servidor con equilibrio de carga, escriba el mandato dscontrol server add clúster:puerto:servidor, edite el archivo de configuración de ejemplo o utilice la GUI. Clúster y servidor pueden ser un nombre simbólico o la dirección IP. Puerto es el número del puerto que utiliza para dicho protocolo. Debe definir más de un servidor por puerto en un clúster para llevar a cabo el equilibrio de carga.

    Servidores específicos del enlace: Si el componente Dispatcher está realizando el equilibrio de carga para servidores específicos del enlace, los servidores deben estar configurados para enlazar con la dirección del clúster. Puesto que Dispatcher reenvía paquetes sin cambiar la dirección IP de destino, cuando los paquetes alcanzan el servidor, los paquetes todavía contienen la dirección del clúster como destino. Si se ha configurado un servidor para enlazar a una dirección IP distinta de la dirección del clúster, el servidor no podrá aceptar peticiones cuyo destino es el clúster.

    Para determinar si el servidor es específico del enlace, emita el mandato netstat -an y busque server:port. Si el servidor no es específico del enlace, el resultado del mandato será 0.0.0.0:80. Si el servidor es específico del enlace, verá una dirección parecida a 192.168.15.103:80.

    Nota:
    Para sistemas Solaris y Linux: cuando se utilizan asesores, los servidores específicos del enlace no pueden tener la ubicación compartida.

    Ubicación compartida de varias direcciones: En una configuración de ubicación compartida, la dirección de la máquina servidor con ubicación compartida no tiene que ser idéntica a la dirección de no reenvío (NFA). Puede utilizar otra dirección si la máquina se ha definido con varias direcciones IP. Para el componente Dispatcher, el servidor con ubicación compartida debe definirse como collocated utilizando el mandato dscontrol server. Para obtener más información sobre los servidores con ubicación compartida, consulte el apartado Utilización de servidores con ubicación compartida.

    Para obtener más información sobre la sintaxis del mandato dscontrol server, consulte el apartado dscontrol server -- configurar servidores.

    Paso 8. Iniciar la función de gestor (opcional)

    La función de gestor mejora el equilibrio de carga. Para iniciar el gestor, escriba el mandato dscontrol manager start, edite el archivo de configuración de ejemplo o utilice la GUI.

    Paso 9. Iniciar la función de asesor (opcional)

    Los asesores proporcionan al gestor más información sobre la capacidad que tienen de las máquinas de servidor con equilibrio de carga para responder a las peticiones. Un asesor es específico de un protocolo. Por ejemplo, para iniciar el asesor HTTP, emita el siguiente mandato:

    dscontrol advisor start http puerto
    
    Para obtener una lista de asesores junto con sus puertos predeterminados, consulte la Referencia de mandatos para Dispatcher y CBR. Para obtener una descripción de cada asesor, consulte el apartado Lista de asesores.

    Paso 10. Definir las proporciones del clúster según sea necesario

    Si inicia asesores, puede modificar la proporción de la importancia dada a la información de asesor que se incluye en las decisiones para el equilibrio de carga. Para definir las proporciones del clúster, emita el mandato dscontrol cluster set clúster proportions. Para obtener más información, consulte el apartado Proporción de la importancia otorgada a la información de estado


    Configuración de máquinas de servidor para el equilibrio de carga

    Realice los siguientes pasos si una de estas condiciones es cierta:

    Al utilizar el método de reenvío MAC, Dispatcher sólo equilibrará la carga en servidores que permiten que el adaptador de bucle de retorno se configure con una dirección IP adicional, para la que el servidor de programa de fondo nunca responderá a las peticiones ARP (protocolo de resolución de direcciones). Para configurar las máquinas de servidor con equilibrio de carga, siga los pasos indicados en este apartado.

    Paso 1. Crear un alias para el dispositivo de bucle de retorno

    Para que las máquinas de servidor con equilibrio de carga funcionen, debe establecer (o preferiblemente asignar un alias) el dispositivo de bucle de retorno (a menudo llamado lo0) en la dirección del clúster. Cuando se utiliza el método de reenvío mac, el componente Dispatcher no cambia la dirección IP de destino en el paquete TCP/IP antes de reenviar el paquete a una máquina servidor TCP. Si se establece o crea un alias del bucle de retorno para la dirección de clúster, las máquinas de servidor con equilibrio de carga aceptarán un paquete que iba dirigido a la dirección del clúster.

    Si utiliza un sistema operativo que da soporte a los alias de interfaz de red (como los sistemas AIX, HP-UX, Linux, Solaris o Windows), debe crear un alias del dispositivo de bucle de retorno para la dirección de clúster. La ventaja de utilizar un sistema operativo que dé soporte a los alias es la capacidad de poder configurar las máquinas de servidores con equilibrio de carga de modo que presten servicio para varias direcciones de clúster.

    IMPORTANTE: en sistemas Linux, consulte el apartado Alternativas de alias de bucle de retorno de Linux cuando se utiliza el reenvío MAC de Load Balancer.

    Si dispone de un servidor con un sistema operativo que no da soporte a los alias, debe establecer el bucle de retorno para la dirección del clúster.

    Utilice el mandato correspondiente al sistema operativo, tal como se muestra en la Tabla 8 para establecer u otorgar un alias al dispositivo de bucle de retorno.

    Tabla 8. Mandatos para crear alias del dispositivo de bucle de retorno (lo0) para Dispatcher

    AIX 4.3 o anteriores
    ifconfig lo0 alias dirección_clúster netmaskmáscara_red
    Nota:
    Utilice la máscara de red del adaptador primario
    AIX 5.x ifconfig lo0 alias dirección_clúster netmask255.255.255.255
    HP-UX ifconfig lo0:1 dirección_clúster up
    Linux Seleccione uno de los siguientes mandatos:
    • ip -4 addr add dirección_clúster/32 dev lo
    • ifconfig lo:1 dirección_clúster netmask 255.255.255.255 up
    IMPORTANTE: Una vez que ha emitido uno de los mandatos de configuración en la máquina, utilice siempre el mismo mandato de configuración (ip o ifconfig) o se pueden producir resultados imprevistos.
    OS/2(R) ifconfig lo dirección_clúster
    OS/390(R) Configuración de un alias de bucle de retorno en el sistema OS/390
    • En el miembro (archivo) del parámetro IP, será necesario que un administrador cree una entrada en la lista de direcciones locales. Por ejemplo
      HOME
      ;Address                   Link
      192.168.252.11             tr0
      192.168.100.100            1tr1
      192.168.252.12             loopback
      
    • Pueden definirse varias direcciones para el bucle de retorno.
    • De manera predeterminada, se configura la dirección de bucle de retorno 127.0.0.1.
    Solaris 7 ifconfig lo0:1 dirección_clúster 127.0.0.1 up
    Solaris 8, Solaris 9 y Solaris 10 ifconfig lo0:1 plumb dirección_clúster netmask máscara_red up
    Windows Server 2003
    1. Pulse Inicie y después pulse Panel de control.
    2. Si todavía no lo ha hecho, añada el Controlador MS Loopback Adapter.
      1. Pulse Agregar hardware. De esta manera se iniciará el asistente para añadir hardware.
      2. Pulse Siguiente
      3. Seleccione Sí, ya he conectado el hardware y pulse Siguiente.
      4. Si MS Loopback Adapter ya aparece en la lista, es que ya está instalado: pulse Cancelar para salir.
      5. Si MS Loopback Adapter no está en la lista, seleccione Agregar un dispositivo nuevo y pulse Siguiente.
      6. Para seleccionar el hardware de una lista, para el panel Buscar nuevo hardware, pulse No y después Siguiente.
      7. Seleccione Adaptadores de red y pulse Siguiente.
      8. En el panel Seleccionar adaptador de red, seleccione Microsoft(R) en la lista Fabricantes y, a continuación, seleccione Microsoft Loopback Adapter.
      9. Pulse Siguiente y, a continuación, vuelva a pulsar Siguiente para instalar los valores predeterminados (o seleccione Utilizar disco y, a continuación, inserte el CD y realice la instalación desde aquí).
      10. Pulse Finalizar para terminar la instalación.
    3. En el Panel de control, haga una doble pulsación en Conexiones de red y de acceso telefónico.
    4. Seleccione la conexión con Nombre de dispositivo "Microsoft Loopback Adapter".
    5. Seleccione Propiedades en el menú desplegable.
    6. Seleccione Protocolo de Internet (TCP/IP) y pulse Propiedades.
    7. Pulse Utilizar la siguiente dirección IP. Rellene la dirección IP con la dirección de clúster y la máscara de subred con la máscara de subred del servidor del programa de fondo.
      Nota:
      No entre una dirección de direccionador. Utilice el localhost como el servidor DNS predeterminado.
    Windows 2000
    1. Pulse Inicio, Configuración y después Panel de control.
    2. Si todavía no lo ha hecho, añada el Controlador MS Loopback Adapter.
      1. Efectúe una doble pulsación en Agregar/quitar hardware. De esta manera se iniciará el asistente para agregar/quitar hardware.
      2. Pulse Siguiente, seleccione Añadir/Resolución de problemas de un dispositivo y pulse Siguiente.
      3. La pantalla parpadea y presenta el panel Elegir un dispositivo de hardware.
      4. Si MS Loopback Adapter ya aparece en la lista, es que ya está instalado: pulse Cancelar para salir.
      5. Si MS Loopback Adapter no está en la lista, seleccione Agregar un dispositivo nuevo y pulse Siguiente.
      6. Para seleccionar el hardware de una lista, para el panel Buscar nuevo hardware, pulse No y después Siguiente.
      7. Seleccione Adaptadores de red y pulse Siguiente.
      8. En el panel Seleccionar adaptador de red, seleccione Microsoft en la lista Fabricantes y, a continuación, seleccione Microsoft Loopback Adapter.
      9. Pulse Siguiente y, a continuación, vuelva a pulsar Siguiente para instalar los valores predeterminados (o seleccione Utilizar disco y, a continuación, inserte el CD y realice la instalación desde aquí).
      10. Pulse Finalizar para terminar la instalación.
    3. En el Panel de control, haga una doble pulsación en Conexiones de red y de acceso telefónico.
    4. Seleccione la conexión con Nombre de dispositivo "Microsoft Loopback Adapter" y pulse el botón derecho del ratón en el mismo.
    5. Seleccione Propiedades en el menú desplegable.
    6. Seleccione Protocolo de Internet (TCP/IP) y pulse Propiedades.
    7. Pulse Utilizar la siguiente dirección IP. Rellene la dirección IP con la dirección del clúster y la máscara de subred con la máscara de subred predeterminada (255.0.0.0).
      Nota:
      No entre una dirección de direccionador. Utilice el localhost como el servidor DNS predeterminado.
    Windows NT(R)
    1. Pulse Inicio y después Configuración.
    2. Pulse Panel de control y, a continuación, pulse una doble pulsación en Red.
    3. Si todavía no lo ha hecho, añada el Controlador MS Loopback Adapter.
      1. En la ventana Red, pulse Adaptadores.
      2. Seleccione MS Loopback Adapter y pulse Aceptar.
      3. Cuando se le solicite, inserte los discos o el CD de instalación.
      4. En la ventana Red, pulse Protocolos.
      5. Seleccione Protocolo TCP/IP y pulse Propiedades.
      6. Seleccione MS Loopback Adapter y pulse Aceptar.
    4. Establezca la dirección de bucle de retorno para su dirección de clúster. Acepte la máscara de subred predeterminada (255.0.0.0) y no especifique una dirección de pasarela.
    Nota:
    Puede que tenga que salir y volver a entrar en la configuración de la red antes de que MS Loopback Driver aparezca bajo la configuración TCP/IP.

    Paso 2. Comprobar si hay una ruta adicional

    En algunos sistemas operativos, es posible que se haya una ruta predeterminada y es necesario eliminarla.

    Ejemplo de Windows

    1. Tras escribir route print, aparecerá una tabla parecida al ejemplo siguiente. (Este ejemplo muestra cómo localizar y eliminar una ruta adicional para el clúster 9.67.133.158 con una máscara de subred predeterminada de 255.0.0.0).
      Rutas activas:
       
      Dirección red   Máscara red     Pasarela         Interfaz        Medida
      0.0.0.0         0.0.0.0         9.67.128.1       9.67.133.67     1
      9.0.0.0    255.0.0.0   9.67.133.158  9.67.133.158     1
      9.67.128.0      255.255.248.0   9.67.133.67      9.67.133.67     1
      9.67.133.67     255.255.255.255 127.0.0.1        127.0.0.1       1
      9.67.133.158    255.255.255.255 127.0.0.1        127.0.0.1       1
      9.255.255.255   255.255.255.255 9.67.133.67      9.67.133.67     1
      127.0.0.0       255.0.0.0       127.0.0.1        127.0.0.1       1
      224.0.0.0       224.0.0.0       9.67.133.158     9.67.133.158    1
      224.0.0.0       224.0.0.0       9.67.133.67      9.67.133.67     1
      255.255.255.255 255.255.255.255 9.67.133.67      9.67.133.67     1 
      
    2. Busque la dirección del clúster en la columna "Dirección de pasarela". Si tiene una ruta adicional, la dirección del clúster aparecerá dos veces. En el ejemplo dado, la dirección del clúster (9.67.133.158) aparece en la fila 2 y la fila 8.
    3. Busque la dirección de red en cada fila en la que aparece la dirección del clúster. Necesitará una de estas rutas y deberá suprimir la otra que sobra. La ruta adicional que debe suprimirse es la ruta cuya dirección de red empieza por el primer dígito de la dirección de clúster, seguida de tres ceros. En el ejemplo siguiente, la ruta adicional es la que aparece en la fila dos, que tiene la dirección de red 9.0.0.0:
                9.0.0.0    255.0.0.0   9.67.133.158  9.67.133.158     1 
       
      

    Paso 3. Suprimir todas las rutas adicionales

    Debe suprimir la ruta adicional. Utilice el mandato correspondiente al sistema operativo que se muestra en la Tabla 9 para suprimir la ruta adicional.

    Ejemplo: para suprimir la ruta adicional tal como se muestra en la tabla de ejemplo "Rutas activas" para el paso 2, escriba:

    route delete 9.0.0.0 9.67.133.158
    

    Tabla 9. Mandatos para suprimir todas las rutas adicionales para Dispatcher

    HP-UX
    route delete dirección_clúster dirección_clúster
    Windows route delete dirección_red dirección_clúster (en un indicador MS-DOS)
    Nota:
    Cada vez que reinicie el sistema debe suprimir la ruta adicional.

    En Windows 2003, no es posible suprimir rutas. En Windows 2003 se deben ignorar todas las rutas adicionales. Si se detectan problemas con el direccionamiento después de la creación de alias, elimine el alias y vuélvalo a añadir utilizando una máscara de red distinta.

    Si se utiliza el ejemplo que se muestra en la Figura 15 y se configura una máquina servidor que se ejecuta en un sistema AIX, el mandato sería:

      route delete -net  204.0.0.0  204.67.172.72
    

    Paso 4. Verificar que el servidor esté configurado correctamente

    Para verificar si un servidor de programa de fondo está configurado correctamente, siga los pasos siguientes desde una máquina distinta que esté en la misma subred cuando Load Balancer no esté configurado y el clúster no esté configurado:

    1. Emita el mandato:
      arp -d clúster
      
    2. Emita el mandato:
      ping clúster
      

      No debe haber ninguna respuesta. Si hay una respuesta al mandato ping, asegúrese de que no se haya ejecutado el mandato ifconfig y se haya asociado la dirección del clúster con la interfaz. Asegúrese de que no haya ninguna máquina con una entrada ARP publicada para la dirección de clúster.

    3. Emita el mandato ping al servidor de programa de fondo e inmediatamente después emita el mandato:
      arp -a
      

      En la salida del mandato, debería ver la dirección MAC del servidor. Emita el mandato:

      arp -s clúster dirección_mac_servidor
      
    4. Emita el mandato ping al clúster. Se debe obtener una respuesta. Emita una petición http, telnet u otra petición dirigida al clúster que tiene previsto que maneje el servidor de programa de fondo. Asegúrese de que funciona correctamente.
    5. Emita el mandato:
      arp -d clúster
      
    6. Emita el mandato ping al clúster. No debe haber ninguna respuesta.
      Nota:
      Si hay una respuesta, emita una instrucción arp clúster para obtener la dirección MAC de la máquina mal configurada. A continuación, repita los pasos 1 a 6.

    Alternativas de alias de bucle de retorno de Linux cuando se utiliza el reenvío MAC de Load Balancer

    Algunas versiones de sistemas Linux emiten respuestas ARP para cualquier dirección IP configurada en la máquina en cualquier interfaz que exista en la máquina. También puede elegir una dirección IP de origen para consultas ARP who-has en función de todas las direcciones IP que existen en la máquina, independientemente de las interfaces en las que se han configurado esas direcciones. Esto provoca que todo el tráfico del clúster se dirija a un solo servidor de una manera indeterminada.

    Cuando se utiliza el método de reenvío MAC de Dispatcher, debe emplearse un mecanismo que garantice que las pilas de servidores de programas de fondo puedan aceptar el tráfico dirigido al clúster, incluida la máquina en espera de alta disponibilidad con ubicación compartida, cuando se utilizan simultáneamente la alta disponibilidad y la ubicación compartida.

    En la mayoría de los casos, debe otorgar un alias a la dirección de clúster en el bucle de retorno; por lo tanto, los servidores de programas de fondo deben tener un alias del clúster en el bucle de retorno, y si utiliza la alta disponibilidad y la ubicación compartida, los servidores de equilibrio de carga en espera deben tener alias de clúster en el bucle de retorno.

    Para asegurarse de que sistemas Linux no publican direcciones en el bucle de retorno, puede utilizar cualquiera de las cuatro soluciones siguientes para hacer que sistemas Linux sea compatibles con el reenvío MAC de Dispatcher.

    1. Utilice un kernel que no publique las direcciones. Esta es la opción preferida, ya que no provoca una actividad adicional por paquete y no requiere una reconfiguración por kernel.
    2. Utilice tablas IP para redirigir todo el tráfico de clúster entrante hacia el host local. Si utiliza este método, no configure el adaptador de bucle de retorno con un alias. En su lugar, utilice el mandato:
       # iptables -t nat -A PREROUTING -d $CLUSTER_ADDRESS -j REDIRECT
      
      Este mandato hace que los sistemas Linux realicen una conversión de direcciones de red (NAT) de destino en cada paquete, que convierte la dirección del clúster en la dirección de interfaz. Este método tiene aproximadamente una penalización en el rendimiento del 6,4% de conexiones por segundo. Este método funciona en cualquier distribución de stock soportada; no es necesario ningún módulo kernel ni aplicar parche, compilarlo e instalarlo en el kernel.
    3. Aplique la versión 1.2.0 o posterior del módulo noarp. El código fuente del kernel debe estar disponible y configurado correctamente; también deben estar disponibles las herramientas de desarrollo (gcc, gnu make, etc.). Cada vez que se amplía el kernel se debe compilar e instalar el módulo. Está disponible en http://www.masarlabs.com/noarp/. Puesto que el código del kernel por sí mismo no se modifica, es menos intrusiva que la solución número 4 (indicada más abajo) y es menos propensa a errores. También debe configurarse antes de crear un alias de dirección de clúster en el bucle de retorno. Por ejemplo:
      # modprobe noarp
      # noarpctl add $CLUSTER_ADDRESS dir_primaria_nic
      
      donde dir_primaria_nic es una dirección en la misma subred que la dirección de clúster. Después se pueden crear alias de los clústeres de la forma normal, como:
       # ifconfig lo:1 dirección_clúster netmask 255.255.255.255 up
      
      Nota:
      Para las configuraciones con ubicación compartida de alta disponibilidad, se debe indicar noarpctl adds y dels en los scripts go*. Esto asegura que el sistema Load Balancer activo pueda utilizar ARP para la dirección del clúster y que el sistema Load Balancer en espera, que actúa como servidor, no empiece a recibir de forma accidental (es decir, de forma indeterminada) todo el tráfico del clúster.
    4. Obtenga el parche Julian en el siguiente sitio Web: http://www.ssi.bg/~ja/#hidden. Siga las instrucciones de distribuciones para aplicar el parche y compilar un kernel apto para su uso con dicha distribución. Si es un sistema Load Balancer de alta disponibilidad con ubicación compartida, asegúrese de que uname -r coincida con el kernel suministrado por la distribución, así como que empieza con el archivo .config del kernel de distribución. Después de compilar, instalar y ejecutar el kernel con el parche oculto Julian, siga las instrucciones especificadas bajo la primera solución descrita para habilitar el parche.
      Nota:
      Si se ejecuta un kernel personalizado, puede tener consecuencias en el soporte de la distribución.

    Componente CBR (Content Based Routing)

    En esta parte se proporciona información sobre la configuración de inicio rápido, consideraciones de planificación y describe los métodos para configurar el componente CBR de Load Balancer. Contiene los capítulos siguientes:


    Configuración de inicio rápido

    En este ejemplo de inicio rápido se muestra cómo configurar tres estaciones de trabajo conectadas localmente utilizando CBR junto con Caching Proxy para equilibrar la carga del tráfico Web entre dos servidores Web. (Para simplicidad, este ejemplo ilustra servidores en el mismo segmento LAN, no obstante, con CBR no hay restricción para utilizar servidores en la misma LAN).

    Figura 16. Configuración local sencilla de CBR

    Un gráfico que muestra un Cliente, una nube de Internet, una máquina
de Load Balancer y dos servidores adjuntos localmente con las direcciones identificadas.


    Qué necesita

    Para el ejemplo de inicio rápido, necesitará tres estaciones de trabajo y cuatro direcciones IP. Se utiliza una estación de trabajo como máquina CBR; las otras dos se utilizarán como servidores Web. Cada servidor Web requiere una dirección IP. La estación de trabajo CBR requiere una dirección real y una dirección donde se va a equilibrar la carga.

    Nota:
    El componente CBR (Content Based Routing) está disponible en todas las plataformas admitidas excepto donde se ejecuta una JVM de 64 bits. De modo alternativo, puede utilizar el método de reenvío cbr del componente Dispatcher de Load Balancer para proporcionar el direccionamiento basado en contenido sin utilizar Caching Proxy. Consulte el apartado Direccionamiento basado en contenido de Dispatcher (método de reenvío cbr) para obtener más información.

    Para utilizar CBR, Caching Proxy debe estar instalado en el mismo servidor. Para configurar Caching Proxy para CBR, consulte el apartado Paso 1. Configurar Caching Proxy para que pueda utilizar CBR.


    Preparativos

    1. Para este ejemplo, configure las estaciones de trabajo en el mismo segmento de la LAN. Asegúrese de que el tráfico de red entre las tres máquinas no tenga que pasar por direccionadores o puentes.
    2. Configure los adaptadores de red de las tres estaciones de trabajo. Para este ejemplo, suponga que tiene la configuración de red siguiente:
      Estación de trabajo Nombre Dirección IP
      1 servidor1.misitioWeb.com 9.27.27.101
      2 servidor2.misitioWeb.com 9.27.27.102
      3 servidor3.misitioWeb.com 9.27.27.103
      Máscara de red = 255.255.255.0

      Cada una de las estaciones de trabajo sólo contiene una tarjeta de interfaz de red Ethernet estándar.

    3. Asegúrese de que servidor1.misitioWeb.com puede ejecutar el mandato ping de servidor2.misitioWeb.com y de servidor3.misitioWeb.com.
    4. Asegúrese de que servidor2.misitioWeb.com y servidor3.misitioWeb.com pueden ejecutar el mandato ping de servidor1.misitioWeb.com.
    5. Asegúrese de que funcionan los servidores Web en servidor2.misitioWeb.com y servidor3.misitioWeb.com. Utilice el navegador Web para solicitar páginas directamente de http://servidor2.misitioWeb.com (por ejemplo, .../member/index.html) y http://servidor3.misitioWeb.com (por ejemplo, .../guest/index.html).
    6. Obtenga otra dirección IP válida para este segmento de la LAN. Esta será la dirección del clúster que proporcionará a los clientes que deseen acceder a su sitio. Para este ejemplo utilizará:
      Nombre= www.misitioWeb.com
      IP=9.27.27.104 
      

    Configuración del componente CBR

    Con CBR, puede crear una configuración mediante la línea de mandatos, el asistente de configuración o la GUI (Interfaz gráfica de usuario). Para este ejemplo de inicio rápido, los pasos de configuración se demuestran utilizando la línea de mandatos.

    Nota:
    Los valores de los parámetros deben escribirse en caracteres del idioma inglés. Las únicas excepciones son los valores de parámetros para los nombres de host y de archivos.

    Configuración con la línea de mandatos

    Desde un indicador de mandatos, siga estos pasos:

    1. Inicie cbrserver. Ejecute este mandato como usuario root o Administrador: cbrserver
      Nota:
      En la plataforma Windows: Inicie cbrserver (Content Based Routing) desde el Panel de control: Inicio > Configuración (para Windows 2000) > Panel de control > Herramientas administrativas > Servicios.
    2. Inicie la función de ejecutor de CBR:

      cbrcontrol executor start

    3. Inicie Caching Proxy. (Se puede iniciar Caching Proxy en cualquier momento después de iniciar la función de ejecutor):

      ibmproxy

      Nota:
      En la plataforma Windows: también puede iniciar Caching Proxy a partir del panel de servicios: Inicio > Configuración (para Windows 2000) > Panel de control > Herramientas administrativas > Servicios.
    4. Añada el clúster (el nombre de host, el sitio Web, al que se conectan los clientes) a la configuración de CBR:

      cbrcontrol cluster add www.misitioweb.com

    5. Añada la dirección del clúster (9.27.27.104) para el sitio Web a la tarjeta de interfaz de red en la máquina de CBR. Para obtener más información, consulte el Paso 5. Crear un alias para la tarjeta de interfaz de red (opcional).
    6. Añada el puerto de protocolo http a la configuración de CBR:

      cbrcontrol port add www.misitioweb.com:80

    7. Añada cada uno de los servidores Web a la configuración de CBR:

      cbrcontrol server add www.misitioweb.com:80:server2.misitioweb.com

      cbrcontrol server add www.misitioweb.com:80:server3.misitioweb.com

    8. Añada reglas de contenido a la configuración de CBR. (Una regla de contenido define cómo se distinguirá y enviará una petición de URL a uno de los servidores o conjuntos de servidores):

      cbrcontrol rule add www.misitioweb.com:80:memberRule type content pattern uri=*/member/*

      cbrcontrol rule add www.misitioweb.com:80:guestRule type content pattern uri=*/guest/*

      En este ejemplo, utilizando la regla de contenido, las peticiones del cliente al sitio Web www.misitioWeb.com se envían a un servidor distinto según un directorio en su vía de acceso de la petición del URI. Consulte el Apéndice B. Sintaxis de la regla de contenido (patrón) para obtener más información.

    9. Añada servidores a las reglas:

      cbrcontrol rule useserver www.misitioweb:80:memberRule server2.misitioweb.com

      cbrcontrol rule useserver www.misitioweb:80:guestRule server3.misitioweb.com

      CBR ahora equilibrará la carga según la regla basada en contenido. Los clientes con peticiones de URL que contengan /member/ se dirigirán a servidor2.misitioWeb.com. Los clientes con peticiones de URL que contengan /guest/ se dirigirán a servidor3.misitioWeb.com.

    10. Inicie la función de gestor de CBR:

      cbrcontrol manager start

    11. Inicie la función de asesor de CBR:

      cbrcontrol advisor start http 80

      Ahora CBR se asegurará de que las peticiones del cliente no se envíen a un servidor Web que haya dado un error.

    Ya se ha completado la configuración básica con los servidores conectados localmente.

    Prueba de la configuración

    Compruebe si la configuración funciona:

    1. Con un navegador Web, vaya a la ubicación http://www.misitioweb.com/member/index.htm. Si se visualiza una página, significa que la configuración funciona.
    2. Vuelva a cargar la página en el navegador Web.
    3. Busque los resultados del mandato siguiente:
      cbrcontrol server report www.misitioweb.com:80:
      
      La columna de conexiones totales de los dos servidores debería sumarse a "2."

    Configuración con la interfaz gráfica de usuario (GUI)

    Para obtener información sobre el uso de la GUI de CBR, consulte los apartados GUI y Apéndice A. GUI: instrucciones generales.

    Configuración con el asistente de configuración

    Si desea información sobre cómo utilizar el asistente de CBR, consulte el apartado Asistente de configuración.


    Tipos de configuraciones de clúster, puerto y servidor

    Hay muchos modos de configurar CBR para dar soporte a su sitio. Si sólo tiene un nombre de host para el sitio al que se conectarán todos sus clientes, puede definir un solo clúster de servidores. Para cada uno de estos servidores, configure el puerto a través del que CBR se comunica. Vea la Figura 9.

    Figura 17. Ejemplo de CBR configurado con un solo clúster y 2 puertos

    Configuración sencilla

    En este ejemplo del componente CBR, se define un clúster en www.productworks.com. Este clúster tiene dos puertos: el puerto 80 para HTTP y el puerto 443 para SSL. Un cliente que solicita http://www.productworks.com (puerto 80) va a un servidor distinto que un cliente que solicita https://www.productworks.com (puerto 443).

    Podría resultar adecuado otro modo de configurar CBR si tiene un sitio de un tamaño muy grande con muchos servidores dedicados a cada protocolo admitido. En este caso, quizá desee definir un clúster para cada protocolo con un solo puerto pero con muchos servidores, como se muestra en la Figura 10.

    Figura 18. Ejemplo de CBR configurado con dos clústeres, cada uno con un puerto

    Configuración con dos clústeres, cada uno con un puerto

    En este ejemplo del componente CBR, se definen dos clústeres: www.productworks.com para el puerto 80 (HTTP) y www.testworks.com para el puerto 443 (SSL).

    Podría ser necesario un tercer modo de configurar CBR si el sitio alberga el contenido de varias empresas o departamentos, en el que cada uno entra al sitio con un URL distinto. En este caso, quizá desee definir un clúster para cada empresa o departamento y luego definir los puertos en los que va a recibir conexiones en ese URL, como se muestra en la Figura 11.

    Figura 19. Ejemplo de CBR configurado con 2 clústeres, cada uno con 2 puertos

    Configuración con dos clústeres, cada uno con dos puertos

    En este ejemplo del componente CBR, se definen dos clústeres con el puerto 80 (HTTP) y el puerto 443 (SSL) para cada uno de los sitios en www.productworks.com y www.testworks.com.


    Planificación de CBR (Content Based Routing)

    En este capítulo se describe lo que debería tener en cuenta el planificador de la red antes de instalar y configurar el componente CBR con Caching Proxy.

    Este capítulo incluye los siguientes apartados:


    Consideraciones de planificación

    El componente CBR permite equilibrar la carga de tráfico HTTP y SSL con Caching Proxy para dirigir mediante proxy la petición. Con CBR, puede equilibrar la carga de servidores que puede configurar desde el archivo de configuración de CBR utilizando mandatos cbrcontrol.

    Nota:
    El componente CBR (Content Based Routing) está disponible en todas las plataformas admitidas excepto donde se ejecuta una JVM de 64 bits. De modo alternativo, puede utilizar el método de reenvío cbr del componente Dispatcher de Load Balancer para proporcionar el direccionamiento basado en contenido sin utilizar Caching Proxy. Consulte el apartado Direccionamiento basado en contenido de Dispatcher (método de reenvío cbr) para obtener más información.

    CBR es muy similar a Dispatcher en su estructura de componentes. CBR consta de las funciones siguientes:

    Las tres funciones clave de CBR (ejecutor, gestor y asesores) actúan conjuntamente para equilibrar y entregar las peticiones entrantes entre servidores. Junto con las peticiones de equilibrio de carga, el ejecutor supervisa el número de conexiones nuevas y de conexiones activas y suministra esta información al gestor.

    Peticiones de equilibrio de carga para distintos tipos de contenido

    El componente CBR proporciona la posibilidad de especificar un conjunto de servidores que gestionarán peticiones basándose en expresiones regulares comparadas con el contenido de la petición de cliente. CBR permite particionar el sitio de modo que conjuntos de servidores distintos pueden atender contenidos o servicios de aplicaciones distintos. Este particionamiento es transparente a clientes que acceden a su sitio.

    División del contenido del sitio para obtener un mejor tiempo de respuesta

    Un modo de dividir su sitio sería asignar algunos servidores para gestionar sólo peticiones cgi y otro conjunto de servidores para gestionar todas las demás peticiones. Esto impide que el cálculo intensivo de scripts cgi ralentice los servidores para el tráfico de HTML normal, lo que permite a los clientes obtener un mejor tiempo de respuesta global. Con el uso de este esquema, también podría asignar estaciones de trabajo más completas para peticiones normales. Esto proporcionaría a los clientes un mejor tiempo de respuesta sin los gastos de actualizar todos los servidores. También podría asignar estaciones de trabajo más completas para peticiones cgi.

    Otra posibilidad para particionar su sitio podría ser dirigir a los clientes que acceden a las páginas que requieren registrarse a un conjunto de servidores y todas las demás peticiones a un segundo conjunto de servidores. Esto impediría que navegadores eventuales de su sitio acapararan recursos que podrían utilizarlos clientes que se hayan comprometido con su registro. También le permitiría utilizar estaciones de trabajo más completas para atender a los clientes que se han registrado.

    Podría por supuesto combinar los métodos anteriores para obtener aún más flexibilidad y un servicio mejorado.

    Provisión de una copia de seguridad del contenido del servidor Web

    Dado que CBR permite especificar varios servidores para cada tipo de petición, se puede equilibrar la carga de los servidores para obtener una respuesta al cliente óptima. Si permite que se asignen varios servidores a cada tipo de contenido, estará protegido si una estación de trabajo o un servidor da un error. CBR reconocerá el error y seguirá equilibrando la carga de peticiones de cliente con los otros servidores del conjunto.

    Utilización de varios procesos Caching Proxy para mejorar la utilización de la CPU

    Caching Proxy comunica con un proceso CBR mediante esta interfaz del plug-in. Para que esto funcione, CBR debe ejecutarse en la máquina local. Dado que estos son dos procesos aparte, puede haber varias instancias de Caching Proxy ejecutándose y trabajando con una sola instancia de CBR. Se podría establecer esta configuración con el fin de segregar direcciones o funcionalidad entre Caching Proxies o para mejorar la utilización de recursos de la máquina teniendo varios Caching Proxies gestionando el tráfico de clientes. Las instancias del proxy se pueden detectar en puertos distintos o enlazarse a direcciones IP únicas en el mismo puerto, en función de lo que mejor se ajuste a los requisitos de tráfico.

    Utilización de equilibrio de carga basado en reglas con CBR

    CBR junto con Caching Proxy examina las peticiones HTTP utilizando los tipos de reglas especificados. Cuando se ejecuta, Caching Proxy acepta peticiones de cliente y consulta al componente CBR cuál es el mejor servidor. En esta consulta, CBR compara la petición con un conjunto de reglas con prioridades. Cuando se cumple una regla, se selecciona el servidor adecuado entre un conjunto de servidores preconfigurados. Finalmente, CBR informa a Caching Proxy del servidor que ha seleccionado y la petición se dirige mediante el proxy ahí.

    Después de definir un clúster para el equilibrio de carga, debe asegurarse de que todas las peticiones a ese clúster tienen una regla que seleccionará un servidor. Si no se ha encontrado ninguna regla que cumpla una petición en particular, el cliente recibirá una página de error del Caching Proxy. El modo más sencillo de asegurarse de que todas las peticiones cumplirán alguna regla es crear una regla "siempre cierta" con un número de prioridad muy alto. Asegúrese de que los servidores utilizados por esta regla puedan gestionar todas las peticiones no gestionadas explícitamente por las reglas que tienen una prioridad con un número inferior. (Nota: las reglas con un número de prioridad inferior se evalúan primero).

    Para obtener más información, consulte el apartado Configuración del equilibrio de carga basado en reglas.

    Equilibrio de carga entre conexiones completamente seguras (SSL)

    CBR con Caching Proxy puede recibir la transmisión SSL del cliente al proxy (en el sentido del cliente al proxy) así como dar soporte a la transmisión del proxy al servidor SSL (en el sentido del proxy al servidor). Si define un puerto SSL en un servidor en la configuración de CBR para recibir la petición SSL del cliente, tiene la posibilidad de mantener un sitio completamente seguro, utilizando CBR para equilibrar la carga entre servidores seguros (SSL).

    Además de otros cambios en el archivo ibmproxy.conf para CBR, es necesario añadir otra sentencia de configuración al archivo ibmproxy.conf para Caching Proxy con el fin de habilitar el cifrado SSL en el sentido del proxy al servidor. El formato debe ser:

    proxy patrón_uri patrón_url dirección
    

    donde patrón_uri es un patrón de coincidencia (por ejemplo: /secure/*), patrón_url es una URL de sustitución (por ejemplo: https://clusterA/secure/*) y dirección es la dirección de clúster (por ejemplo: clusterA).

    Equilibrio de carga de cliente a proxy en SSL y de proxy a servidor en HTTP

    CBR con Caching Proxy también puede recibir la transmisión SSL del cliente y a continuación descifrar la petición SSL antes de dirigir mediante proxy la petición a un servidor HTTP. Para que CBR proporcione soporte de cliente a proxy en SSL y de proxy a servidor en HTTP, hay una palabra clave opcional mapport en el mandato del servidor cbrcontrol. Utilice esta palabra clave cuando necesite indicar que el puerto en el servidor es distinto del puerto de entrada del cliente. A continuación figura un ejemplo para añadir un puerto utilizando la palabra clave mapport, donde el puerto del cliente es 443 (SSL) y el puerto del servidor es 80 (HTTP):

    cbrcontrol server add cluster:443 mapport 80
    

    El número de puerto de mapport puede ser cualquier valor entero positivo. El valor predeterminado es el número de puerto del puerto de entrada del cliente.

    Puesto que CBR debe ser capaz de asesorar sobre una petición HTTP de un servidor configurado en el puerto 443 (SSL), se proporciona un asesor especial ssl2http . Este asesor comienza en el puerto 443 (el puerto de entrada del cliente) y asesora sobre el servidor o los servidores configurados para ese puerto. Si hay dos clústeres configurados y cada clúster tiene el puerto 443, además los servidores están configurados con un mapport distinto, entonces una sola instancia del asesor puede abrir el puerto adecuado de modo correspondiente. A continuación figura un ejemplo de esta configuración:

    Executor
        Cluster1
           Port:443
               Server1 mapport 80
               Server2 mapport 8080
        Cluster2
           Port:443
               Server3 mapport 80
               Server4 mapport 8080
        Manager
          Advisor ssl2http 443
     
    

    Configuración de CBR (Content Based Routing)

    Antes de llevar a cabo los pasos de este capítulo, consulte el apartado Planificación de CBR (Content Based Routing). En este capítulo se explica cómo crear una configuración básica para el componente CBR de Load Balancer.


    Visión general de las tareas de configuración

    Antes de empezar a realizar los pasos de configuración indicados en esta tabla, asegúrese de que la máquina CBR y todas las máquinas de servidores están conectadas a la red, tienen direcciones IP válidas y que pueden enviar una sonda de paquetes Internet entre sí.

    Nota:
    El componente CBR (Content Based Routing) está disponible en todas las plataformas admitidas excepto donde se ejecuta una JVM de 64 bits. De modo alternativo, puede utilizar el método de reenvío cbr del componente Dispatcher de Load Balancer para proporcionar el direccionamiento basado en contenido sin utilizar Caching Proxy. Consulte el apartado Direccionamiento basado en contenido de Dispatcher (método de reenvío cbr) para obtener más información.

    Tabla 10. Tareas de configuración para el componente CBR

    Tarea Descripción Información relacionada
    Configurar la máquina CBR. Averigua los requisitos. Configuración de la máquina CBR
    Configurar máquinas en las que se va a equilibrar la carga. Configura la configuración de equilibrio de carga. Paso 7. Definir máquinas servidor con equilibrio de carga

    Métodos de configuración

    Existen cuatro métodos básicos para crear una configuración básica para el componente CBR de Load Balancer:

    Para utilizar CBR, tiene que haber instalado Caching Proxy.

    Nota:
    Caching Proxy es un servicio que se inicia automáticamente de manera predeterminada después de la instalación. Debe detener Caching Proxy antes de iniciar la función de servidor CBR (cbrserver) y modificar el servicio Caching Proxy de forma que se inicie manualmente en lugar de hacerlo automáticamente.

    Línea de mandatos

    Es la manera más directa de configurar CBR. Los valores de los parámetros de mandatos deben especificarse en caracteres del idioma inglés. Las únicas excepciones son los nombres de host (se utiliza, por ejemplo, en los mandatos de clúster y servidor) y los nombres de archivo.

    Para iniciar CBR desde la línea de mandatos:

    Puede entrar una versión abreviada de los parámetros del mandato cbrcontrol. Sólo es necesario especificar las letras exclusivas de los parámetros. Por ejemplo, para obtener ayuda sobre el mandato para guardar archivos, puede escribir cbrcontrol he f en lugar de cbrcontrol help file.

    Para iniciar la interfaz de línea de mandatos, emita cbrcontrol para obtener un indicador de mandatos cbrcontrol.

    Para finalizar la interfaz de línea de mandatos, emita exit o quit.

    Notas:

    1. En la plataforma Windows, se inicia automáticamente el dsserver del componente Dispatcher. Si sólo utiliza CBR y no emplea el componente Dispatcher, puede evitar que dsserver se inicie de forma automática haciendo lo siguiente:
      1. En la ventana Servicios, pulse con el botón derecho del ratón en IBM Dispatcher.
      2. Seleccione Propiedades.
      3. En el campo Tipo de inicio, seleccione Manual.
      4. Pulse Aceptar y cierre la ventana Servicios.

    2. Al configurar CBR (Content Based Routing) desde el indicador de mandatos del sistema operativo en lugar de hacerlo desde el indicador cbrcontrol>>, tenga cuidado cuando utilice estos caracteres:

      ( ) paréntesis derecho e izquierdo

      & ampersand

      | barra vertical

      ! signo de exclamación

      * asterisco

      El shell del sistema operativo puede interpretarlos como caracteres especiales y convertirlos en texto alternativo antes de que cbrcontrol los evalúe.

      Los caracteres especiales en la lista anterior son caracteres opcionales del mandato cbrcontrol rule add y se utilizan cuando se especifica un patrón para una regla de contenido. Por ejemplo, el siguiente mandato sólo puede ser válido cuando se utiliza el indicador cbrcontrol>>.

      rule add 10.1.203.4:80:cbr_prod_rule_ek type content
        pattern uri=/nipoek/*
      

      Para que este mismo mandato funcione en el indicador del sistema operativo, el patrón debe indicarse entre dos signos de comillas (" ") de la forma indicada a continuación:

      cbrcontrol rule add 10.1.203.4:80:cbr_prod_rule_ek type content
      pattern "uri=/nipoek/*"
      

      Si no se utilizan las comillas, alguna parte del patrón puede truncarse cuando la regla se guarda en CBR. Tenga en cuenta que las comillas no están soportadas cuando se utiliza el indicador de mandatos cbrcontrol>>.

    Scripts

    Los mandatos para configurar CBR pueden especificarse y ejecutarse juntos en un archivo de script de configuración.

    Nota:
    Para ejecutar rápidamente el contenido de un archivo de script (por ejemplo, miscript), use cualquiera de los siguientes mandatos:

    Para guardar la configuración actual en un archivo de script (por ejemplo, guardascript), ejecute el siguiente mandato:

    cbrcontrol file save guardascript
    

    Este mandato guardará el archivo de script de configuración en el directorio ...ibm/edge/lb/servers/configurations/cbr.

    GUI

    Para obtener instrucciones generales y un ejemplo de la interfaz gráfica de usuario (GUI), consulte la Figura 41.

    Para iniciar la GUI, siga estos pasos

    1. Asegúrese de que cbrserver se está ejecutando. Como usuario root o administrador, emita lo siguiente en el indicador de mandatos: cbrserver
    2. Efectúe una de las siguientes acciones, en función del sistema operativo:
    3. Inicie Caching Proxy. (En la GUI, primero debe conectarse al host e iniciar el ejecutor para el componente CBR antes de iniciar Caching Proxy). Realice una de las operaciones siguientes:

    Para configurar el componente CBR desde la GUI, primero debe seleccionar Content Based Routing en la estructura de árbol. Inicie el gestor después de conectarse a un host. También puede crear clústeres que contengan puertos y servidores, así como iniciar asesores para el gestor.

    La GUI puede utilizarse para llevar a cabo las mismas tareas que realizaría con el mandato cbrcontrol. Por ejemplo, para definir un clúster mediante la línea de mandatos, especifique el mandato cbrcontrol cluster add clúster. Para definir un clúster desde la GUI, pulse con el botón derecho del ratón en Ejecutor y, en el menú emergente, pulse Añadir clúster. Escriba la dirección del clúster en la ventana emergente y pulse Aceptar.

    Los archivos de configuración de CBR preexistentes pueden cargarse con las opciones Cargar nueva configuración (para sustituir completamente la configuración actual) y Añadir a la configuración actual (para actualizar la configuración actual) que aparecen el menú emergente Host. Debe guardar de forma periódica la configuración de CBR en un archivo con la opción Guardar archivo de configuración como que también se encuentra en el menú emergente Host. El menú Archivo situado en la parte superior de la GUI, permite guardar en un archivo las conexiones actuales del host o restaurar conexiones que se encuentran en archivos existentes en todos los componentes de Load Balancer.

    Para acceder a la Ayuda, pulse el icono de signo de interrogación situado en la esquina superior derecha de la ventana de Load Balancer.

    Para poder ejecutar un mandato desde la GUI: resalte el nodo Host en el árbol de la GUI y seleccione Enviar mandato... en el menú emergente Host. En el campo de entrada de mandatos, escriba el mandato que desea ejecutar, por ejemplo: executor report. Aparecerán en la ventana proporcionada los resultados y el historial de los mandatos ejecutados en la sesión actual.

    Para obtener más información sobre cómo utilizar la GUI, consulte el Apéndice A. GUI: instrucciones generales.

    Asistente de configuración

    Si va a utilizar el asistente de configuración, siga estos pasos:

    1. Inicie el cbrserver: emita cbrserver en el indicador de mandatos como usuario root o administrador.
    2. Inicie la función de asistente de CBR:

      Inicie este asistente desde el indicador de mandatos emitiendo cbrwizard. O bien, seleccione el Asistente de configuración desde el menú del componente CBR como se presenta en la GUI.

    3. Inicie Caching Proxy para equilibrar la carga del tráfico HTTP o HTTPS (SSL).

      En sistemas AIX, HP-UX, Linux o Solaris: para iniciar Caching Proxy, escriba ibmproxy

      En sistemas Windows: para iniciar Caching Proxy, vaya al panel Servicios: Inicio > Configuración (para Windows 2000) > Panel de control > Herramientas administrativas > Servicios.

    El asistente CBR le guiará, paso a paso, a través del proceso de creación de una configuración básica para el componente CBR. Formula preguntas sobre la red y le guía mientras define un clúster que permite a CBR equilibrar la carga de tráfico entre un grupo de servidores.


    Configuración de la máquina CBR

    Para configurar la máquina CBR, debe ser el usuario root (en sistemas AIX, HP-UX, Linux o Solaris) o el administrador (en los sistemas Windows).

    Es necesaria una dirección IP válida para cada clúster de servidores que se configure. Una dirección de clúster es una dirección asociada con un nombre de host (como www.empresa.com). El cliente utilizará esta dirección IP para conectarse a los servidores de un clúster. En concreto, esta dirección se encuentra en la petición de URL del cliente. CBR equilibra la carga de todas las peticiones realizadas en la misma dirección de clúster.

    Sólo para sistemas Solaris: antes de utilizar el componente CBR, deben modificarse los valores predeterminados del sistema para IPC (comunicación entre procesos). Es necesario aumentar el tamaño máximo de un segmento de memoria compartida y el número de identificadores de semáforos. Para ajustar el sistema de modo que dé soporte a CBR, edite el archivo /etc/system en el sistema y añada las siguientes sentencias y rearranque:

    set shmsys:shminfo_shmmax=0x02000000
    set semsys:seminfo_semmap=750
    set semsys:seminfo_semmni=30
    set semsys:seminfo_semmns=750
    set semsys:seminfo_semmnu=30
    set semsys:seminfo_semume=30
    

    Si no aumenta el segmento de memoria compartida hasta los valores indicados más arriba, el mandato cbrcontrol executor start no se ejecutará correctamente.

    Paso 1. Configurar Caching Proxy para que pueda utilizar CBR

    Para utilizar CBR, tiene que haber instalado Caching Proxy.

    Nota:
    Caching Proxy es un servicio que se inicia automáticamente de manera predeterminada después de la instalación. Debe detener Caching Proxy antes de iniciar la función de servidor CBR y modificar el servicio Caching Proxy de forma que se inicie manualmente en lugar de hacerlo automáticamente.

    Debe realizar las siguientes modificaciones en el archivo de configuración de Caching Proxy (ibmproxy.conf):

    Verifique que la directiva de URL entrante CacheByIncomingUrl tiene el valor "off" (valor predeterminado).

    En la sección de reglas de correlación del archivo de configuración, para cada clúster, añada una regla de correlación parecida a la siguiente:

    Proxy    /*  http://cluster.domain.com/*    cluster.domain.com
    
    Nota:
    CBR establece el protocolo, el servidor y el puerto de destino más adelante.

    Hay cuatro entradas que deben editarse para el plug-in de CBR:

    Cada entrada debe estar en una sola línea. Hay varias instancias de "ServerInit" en el archivo ibmproxy.conf, una para cada plug-in. Se debe eliminar el comentario de las entradas para "CBR Plug-in".

    A continuación se muestran las adiciones específicas realizadas en el archivo de configuración para cada uno de los sistemas operativos.

    Figura 20. Archivo de configuración de CBR para sistemas AIX, Linux y Solaris

    ServerInit  /opt/ibm/edge/lb/servers/lib/liblbcbr.so:ndServerInit 
     
    PostAuth  /opt/ibm/edge/lb/servers/lib/liblbcbr.so:ndPostAuth 
     
    PostExit  /opt/ibm/edge/lb/servers/lib/liblbcbr.so:ndPostExit 
     
    ServerTerm  /opt/ibm/edge/lb/servers/lib/liblbcbr.so:ndServerTerm
    

    Figura 21. Archivo de configuración de CBR para sistemas HP-UX

    ServerInit  /opt/ibm/edge/lb/servers/lib/liblbcbr.sl:ndServerInit 
     
    PostAuth  /opt/ibm/edge/lb/servers/lib/liblbcbr.sl:ndPostAuth 
     
    PostExit  /opt/ibm/edge/lb/servers/lib/liblbcbr.sl:ndPostExit 
     
    ServerTerm  /opt/ibm/edge/lb/servers/lib/liblbcbr.sl:ndServerTerm
    

    Figura 22. Archivo de configuración de CBR para sistemas Windows

    ServerInit  C:\Archivos de programa\IBM\edge\lb\servers\lib\liblbcbr.dll:ndServerInit 
     
    PostAuth  C:\Archivos de programa\IBM\edge\lb\servers\lib\liblbcbr.dll:ndPostAuth 
     
    PostExit  C:\Archivos de programa\IBM\edge\lb\servers\lib\liblbcbr.dll:ndPostExit 
     
    ServerTerm C:\Archivos de programa\IBM\edge\lb\servers\lib\liblbcbr.dll:ndServerTerm
    

    Paso 2. Iniciar la función de servidor

    Para iniciar la función de servidor de CBR, escriba cbrserver en la línea de mandatos.

    Un archivo de configuración predeterminado (default.cfg) se carga de forma automática al iniciar cbrserver. Si decide guardar la configuración de CBR en default.cfg, todo lo que se guarde en este archivo se carga automáticamente la próxima vez que se inicie cbrserver.

    Paso 3. Iniciar la función de ejecutor

    Para iniciar la función de ejecutor, escriba el mandato cbrcontrol executor start. En este momento también puede cambiar varios valores del ejecutor. Consulte el apartado dscontrol executor -- controlar el ejecutor.

    Paso 4. Definir un clúster y establecer opciones de clúster

    CBR equilibrará las peticiones enviadas para el clúster a los servidores correspondientes configurados en los puertos para dicho clúster.

    El clúster es el nombre simbólico situado en la parte del host del URL y debe coincidir con el nombre utilizado en la sentencia Proxy del archivo ibmproxy.conf.

    Los clústeres definidos en CBR deben definirse de modo que coincidan con la petición entrante. Un clúster debe definirse con el mismo nombre de host o la misma dirección IP que la petición entrante que incluirá. Por ejemplo, si la petición se entra como la dirección IP, el clúster debe definirse como la dirección IP. Si hay más de un nombre de host que se resuelve en una sola dirección IP (y las peticiones pueden llegar con cualquiera de estos nombres de host), todos los nombres de host deben definirse como clústeres.

    Para definir un clúster, emita el siguiente mandato:

    cbrcontrol cluster add clúster
    

    Para establecer las opciones del clúster, emita el siguiente mandato:

    cbrcontrol cluster set clúster opción valor
    

    Para obtener más información, consulte el apartado Referencia de mandatos para Dispatcher y CBR.

    Paso 5. Crear un alias para la tarjeta de interfaz de red (opcional)

    Si ejecuta Caching Proxy configurado como proxy de retroceso, cuando se equilibra la carga para varios sitios web, debe añadir la dirección del clúster para cada sitio Web a, como mínimo, una de las tarjetas de interfaz de red de la máquina Load Balancer. De lo contrario, puede omitir este paso.

    En sistemas AIX, HP-UX, Linux o Solaris: para añadir la dirección del clúster a la interfaz de red, utilice el siguiente mandato ifconfig. Utilice el mandato correspondiente a su sistema operativo tal como se muestra en la Tabla 11.

    Tabla 11. Mandatos para crear alias para la NIC

    AIX ifconfig nombre_interfaz alias dirección_clúster netmask máscara_red
    HP-UX ifconfig nombre_interfaz dirección_clúster netmask máscara_red up
    Linux ifconfig nombre_interfaz dirección_clúster netmask máscara_red up
    Solaris 8, Solaris 9 y Solaris 10 ifconfig nombre_interfaz addif dirección_clúster netmask máscara_red up
    Nota:
    En sistemas Linux y HP-UX, nombre_interfaz debe ser un número exclusivo para cada dirección de clúster que se añade, por ejemplo: eth0:1, eth0:2, etc.

    En sistemas Windows 2000: para añadir la dirección de clúster a la interfaz de red, haga lo siguiente:

    1. Pulse Inicio > Configuración > Panel de control.
    2. Efectúe una doble pulsación en Conexiones de red y de acceso telefónico.
    3. Pulse con el botón derecho del ratón en Conexión de área local.
    4. Seleccione Propiedades.
    5. Seleccione Protocolo de Internet (TCP/IP) y pulse Propiedades.
    6. Seleccione Utilizar la siguiente dirección IP y pulse Avanzada.
    7. Pulse Añadir y luego escriba la Dirección IP y la máscara de subred para el clúster.

    En sistemas Windows 2003: para añadir la dirección de clúster a la interfaz de red, haga lo siguiente:

    1. Pulse Inicio > Panel de control > Conexiones de red > Conexión de área local.
    2. Pulse Propiedades.
    3. Seleccione Protocolo de Internet (TCP/IP) y pulse Propiedades.
    4. Seleccione Utilizar la siguiente dirección IP y pulse Avanzada.
    5. Pulse Añadir y escriba la dirección IP y la máscara de subred para el clúster.

    Paso 6. Definir puertos y establecer opciones de puertos

    El número de puerto es el puerto en el que escuchan las aplicaciones del servidor. Para CBR con Caching Proxy ejecutando tráfico HTTP, es normalmente el puerto 80.

    Para definir un puerto para el clúster definido en el paso anterior, emita el siguiente mandato:

    cbrcontrol port add clúster:puerto 
    

    Para establecer las opciones del puerto, emita el siguiente mandato:

    cbrcontrol port set clúster:puerto opción valor
    

    Para obtener más información, consulte el apartado Referencia de mandatos para Dispatcher y CBR.

    Paso 7. Definir máquinas servidor con equilibrio de carga

    Las máquinas servidor son las máquinas que ejecutan las aplicaciones en las que se desea realizar el equilibrio de carga. El servidor es el nombre simbólico o dirección decimal con puntos de la máquina servidor. Para definir un servidor en el clúster y puerto, emita el siguiente mandato:

    cbrcontrol server add clúster:puerto:servidor
    

    Debe definir más de un servidor por puerto en un clúster para llevar a cabo el equilibrio de carga.

    Paso 8. Añadir reglas a la configuración

    Este es el paso clave en la configuración de CBR con Caching Proxy. Una regla define cómo una petición de URL se distinguirá y se enviará a un servidor del conjunto de servidores adecuado. El tipo de regla especial utilizado por CBR se denomina regla de contenido. Para definir una regla de contenido, emita el siguiente mandato:

    cbrcontrol rule add clúster:puerto:regla type content pattern patrón
    

    El valor patrón es la expresión regular que se compara con el URL en cada petición de cliente. Para obtener más información sobre cómo configurar el patrón, consulte el Apéndice B. Sintaxis de la regla de contenido (patrón).

    En CBR también se pueden utilizar algunos otros tipos de reglas definidos en Dispatcher. Para obtener más información, consulte el apartado Configuración del equilibrio de carga basado en reglas.

    Paso 9. Añadir servidores a las reglas

    Cuando una regla coincide con una petición de cliente, se consulta el conjunto de servidores de la regla para saber qué servidor es el mejor. El conjunto de servidores de la regla es un subconjunto de los servidores definidos en el puerto. Para añadir servidores a un conjunto de servidores de una regla, emita el siguiente mandato:

    cbrcontrol rule useserver clúster:puerto:servidor de reglas
    

    Paso 10. Iniciar la función de gestor (opcional)

    La función de gestor mejora el equilibrio de carga. Para iniciar el gestor, emita el siguiente mandato:

    cbrcontrol manager start
    

    Paso 11. Iniciar la función de asesor (opcional)

    Los asesores proporcionan al gestor más información sobre la capacidad que tienen de las máquinas de servidor con equilibrio de carga para responder a las peticiones. Un asesor es específico de un protocolo. Por ejemplo, para iniciar el asesor HTTP, emita el siguiente mandato:

    cbrcontrol advisor start http puerto
    

    Paso 12. Definir las proporciones del clúster según sea necesario

    Si inicia asesores, puede modificar la proporción de la importancia dada a la información de asesor que se incluye en las decisiones para el equilibrio de carga. Para definir las proporciones del clúster, emita el mandato cbrcontrol cluster set clúster proportions. Para obtener más información, consulte el apartado Proporción de la importancia otorgada a la información de estado

    Paso 13. Iniciar Caching Proxy

    En el nuevo entorno, inicie Caching Proxy: en el indicador de mandatos, emita ibmproxy

    Nota:
    En sistemas Windows: inicie Caching Proxy a partir del panel de servicios: Inicio -> Configuración (para Windows 2000)-> Panel de control -> Herramientas administrativas -> Servicios.

    Ejemplo de configuración CBR

    Para configurar CBR, siga estos pasos:

    1. Inicie CBR: emita el mandato cbrserver.
    2. Inicie la interfaz de línea de mandatos: emita el mandato cbrcontrol.
    3. Aparecerá el indicador cbrcontrol. Emita los siguientes mandatos. (cluster(c),port(p),rule(r),server(s))
    4. Inicie Caching Proxy: emite el mandato ibmproxy. (En la plataforma Windows, inicie Caching Proxy desde el panel Servicios.)
    5. Elimine del navegador todas las configuraciones del proxy.
    6. Cargue http://c/ en el navegador, donde "'c" es el clúster configurado anteriormente.

    Componente Site Selector

    Esta parte proporciona información sobre la configuración de inicio rápido, consideraciones de planificación y describe los métodos para configurar el componente Site Selector de Load Balancer. Contiene los capítulos siguientes:


    Configuración de inicio rápido

    En este ejemplo de inicio rápido se muestra cómo crear una configuración de nombre de sitio con Site Selector para el tráfico de equilibrio de carga entre un conjunto de servidores según el nombre de dominio utilizado en una petición de cliente.

    Figura 23. Configuración sencilla de Site Selector

    Un gráfico que muestra un Cliente, una nube de Internet, una máquina de Load Balancer y dos servidores adjuntos localmente con las direcciones identificadas.


    Qué necesita

    Para este ejemplo de configuración de inicio rápido, necesitará lo siguiente:


    Preparativos

    Para este ejemplo de inicio rápido, el dominio del sitio de la empresa es mitiendaweb.com. Site Selector se encarga de un subdominio dentro de mitiendaweb.com. Por lo tanto, tendrá que definir un subdominio dentro de mitiendaweb.com. Por ejemplo: apps.mitiendaweb.com. Site Selector no es un DNS completamente implementado, como BIND y actúa como un nodo hoja en una jerarquía de DNS. Site Selector tiene autoridad para el subdominio apps.mitiendaweb.com. El subdominio apps.mitiendaweb.com incluirá los nombres de sitio siguientes: marketing.apps.mitiendaweb.com y desarrollo.apps.mitiendaweb.com.

    1. Actualice el servidor de nombres de dominio de la empresa (consulte la Figura 23). Cree un registro del servidor de nombres en el archivo de datos nombrado para el subdominio (apps.mitiendaweb.com) donde Site Selector es el servidor de nombres autorizado:

      apps.mitiendaweb.com. IN NS siteselector.mitiendaweb.com

    2. Asegúrese de que el nombre de host plenamente cualificado o sitio no se resuelve en el sistema de nombre de dominio actual.
    3. Instale Metric Server en los servidores (servidor1, servidor2, servidor3, servidor4) de los que tiene previsto que Site Selector equilibre la carga. Consulte el apartado Metric Server para obtener más información.

    Configuración del componente Site Selector

    Con Site Selector, puede crear una configuración mediante la línea de mandatos, el asistente de configuración o la interfaz gráfica de usuario (GUI). Para este ejemplo de inicio rápido, los pasos de configuración se demuestran utilizando la línea de mandatos.

    Nota:
    Los valores de los parámetros deben escribirse en caracteres del idioma inglés. Las únicas excepciones son los valores de parámetros para los nombres de host y de archivos.

    Configuración con la línea de mandatos

    Desde un indicador de mandatos, siga estos pasos:

    1. Inicie ssserver en la máquina que alberga a Site Selector. Como usuario root o administrador, emita lo siguiente desde el indicador de mandatos: ssserver
      Nota:
      En la plataforma Windows: inicie ssserver (IBM Site Selector) desde el panel Servicios: Inicio > Configuración (para Windows 2000) > Panel de control > Herramientas administrativas > Servicios.
    2. Inicie el servidor de nombres en la configuración de Site Selector:

      sscontrol nameserver start

    3. Configure los nombres de sitio (marketing.apps.mitiendaweb.com y desarrollo.apps.mitiendaweb.com) en Site Selector:

      sscontrol sitename add marketing.apps.mitiendaweb.com

      sscontrol sitename add developer.apps.mitiendaweb.com

    4. Añada los servidores a la configuración de Site Selector. (Configure servidor1 y servidor2 con el nombre de sitio marketing.apps.mitiendaweb.com. Configure servidor3 y servidor4 con el nombre de sitio desarrollo.apps.mitiendaweb.com):

      sscontrol server add marketing.apps.mitiendaweb.com:servidor1+servidor2

      sscontrol server add developer.apps.mitiendaweb.com:servidor3+servidor4

    5. Inicie la función de gestor de Site Selector:

      sscontrol manager start

    6. Inicie la función de asesor de Site Selector (asesor de HTTP para marketing.apps.mitiendaweb.com y asesor de FTP para desarrollo.apps.mitiendaweb):

      sscontrol advisor start http marketing.apps.mitiendaweb.com:80

      sscontrol advisor start ftp developer.apps.mitiendaweb.com:21

      Site Selector ahora se asegurará de que no se envíen las peticiones de cliente a un servidor con anomalías.

    7. Asegúrese de que se ha iniciado Metric Server en cada uno de los servidores con equilibrio de carga.

    Ya se ha completado la configuración básica de Site Selector.

    Prueba de la configuración

    Compruebe si la configuración funciona:

    1. Desde un cliente, que tenga un DNS primario configurado como el servidor de nombres encargado de mitiendaweb.com, intente ejecutar ping en uno de los nombres de sitio configurados.
    2. Conecte con la aplicación. Por ejemplo:
    3. Busque los resultados del mandato siguiente:

      sscontrol server status marketing.apps.mitiendaweb.com:

      sscontrol server status developer.apps.mitiendaweb.com:

      La entrada de total de aciertos de cada servidor debería sumarse al ping y a la petición de aplicación.

    Configuración con la interfaz gráfica de usuario (GUI)

    Para obtener información sobre el uso de la GUI de Site Selector, consulte los apartados GUI y Apéndice A. GUI: instrucciones generales.

    Configuración con el asistente de configuración

    Si desea información sobre cómo utilizar el asistente de Site Selector, consulte el apartado Asistente de configuración.


    Planificación para Site Selector

    En este capítulo se describe lo que debe tener en cuenta el planificador de la red antes de instalar y configurar el componente Site Selector.

    Este capítulo incluye los apartados siguientes:


    Consideraciones de planificación

    Site Selector funciona junto con un servidor de nombres de dominio para realizar el equilibrio de carga entre un grupo de servidores utilizando medidas y pesos que se recopilan. Puede crear una configuración del sitio que le permita equilibrar la carga del tráfico entre un grupo de servidores basándose en el nombre de dominio utilizado para la petición de un cliente.

    Limitaciones: Site Selector únicamente da soporte a las consultas DNS de tipo A. Cualquier otro tipo de consulta generará un código de retorno NOTIMPL (no se implementa). Si todo el dominio se delega a Site Selector, asegúrese de que el dominio sólo reciba consultas de tipo A.

    Figura 24. Ejemplo de un entorno DNS


    Cuando se configura un subdominio para Site Selector dentro del entorno de DNS, Site Selector debe tener autoridad sobre su propio subdominio. Por ejemplo (consulte la Figura 24), se ha asignado a su empresa autoridad sobre el dominio empresa.com. Dentro de la empresa, hay varios subdominios. Site Selector tendría autoridad de siteload.empresa.com, mientras que el servidor o los servidores DNS seguirán manteniendo la autoridad de atlanta.empresa.com y boston.empresa.com .

    Para que el servidor de nombres de la empresa reconozca que Site Selector tiene autoridad del subdominio siteload, será necesario añadir una entrada de servidor de nombres al archivo de datos nombrado. Por ejemplo, en sistemas AIX, un servidor de nombres se parecería a lo siguiente:

    siteload.empresa.com. IN NS siteselector.empresa.com.
    

    Donde siteselector.empresa.com es el nombre de host de la máquina Site Selector. Sería necesario crear entradas equivalentes en cualquier otro archivo de base de datos nombrado para que los servidores DNS lo utilicen.

    Un cliente somete una petición de resolución de un nombre de dominio a un servidor de nombres dentro de su red. El servidor de nombres reenvía la petición al sistema Site Selector. Site Selector luego soluciona el nombre de dominio con la dirección IP de uno de los servidores que se han configurado bajo el nombre de sitio. Site Selector devuelve la dirección IP del servidor seleccionado al servidor de nombres. El servidor de nombres devuelve la dirección IP al cliente. (Site Selector actúa como un servidor de nombres no recursivo (nodo hoja) y devolverá un error si no resuelve la petición de nombre de dominio).

    Consulte la Figura 5 que ilustra un sitio en el que se utiliza Site Selector junto con un sistema de DNS para equilibrar la carga entre servidores locales y remotos.

    Site Selector consta de estas funciones:

    Las cuatro funciones clave de Site Selector (servidor de nombres, gestor, Metric Server y asesores) interactúan para equilibrar y solucionar las peticiones de entrada entre servidores.

    Consideraciones de TTL

    El uso del equilibrio de carga según el DNS requiere que se inhabilite la colocación en memoria caché de la resolución de nombres. El valor de TTL (tiempo de vida) determina la eficacia del equilibrio de carga según el DNS. TTL determina cuándo tiempo otro servidor de nombres colocará en memoria caché la respuesta resuelta. Valores de TTL pequeños permiten que cambios pequeños en la carga del servidor o de red se realicen de forma más ágil. No obstante, para inhabilitar la colocación en memoria caché se requiere que los clientes se pongan en contacto con el servidor de nombres autorizado para todas las peticiones de resolución de nombres, así se aumenta potencialmente la latencia del cliente. Cuando se selecciona un valor de TTL, debería tenerse en cuenta el impacto que tendrá sobre el entorno la inhabilitación de la memoria caché. Tenga en cuenta también que el equilibrio de carga según el DNS se puede limitar por la colocación en memoria caché del cliente de las resoluciones de nombres.

    Se puede configurar TTL utilizando el mandato sscontrol sitename [add | set] . Consulte el apartado sscontrol sitename -- configurar un nombre de sitio para obtener más información.

    Utilización de la característica proximidad de red

    La proximidad de red es el cálculo de la cercanía de cada servidor al cliente solicitante. Para determinar la proximidad de red, el agente Metric Server (que debe residir en cada servidor con equilibrio de carga) envía un ping a la dirección IP cliente y devuelve el tiempo de respuesta a Site Selector. Site Selector utiliza la respuesta de proximidad en la decisión de equilibrio de carga. Site Selector combina el valor de respuesta de proximidad de red con el peso del gestor para crear un valor de peso final combinado para el servidor.

    El uso de la característica proximidad de red con Site Selector es opcional.

    Site Selector proporciona estas opciones de proximidad de red que se pueden establecer por nombre de sitio:

    Se pueden establecer las opciones de proximidad de red en el mandato sscontrol sitename [add | set] . Consulte el apartado Referencia de mandatos para Site Selector para obtener más información.


    Configuración de Site Selector

    Antes de llevar a cabo los pasos de este capítulo, consulte el apartado Planificación para Site Selector. En este capítulo se explica cómo crear una configuración básica para el componente Site Selector de Load Balancer.


    Visión general de las tareas de configuración

    Nota:
    antes de empezar a realizar los pasos de configuración indicados en esta tabla, asegúrese de que la máquina Site Selector y todas las máquinas de servidores están conectadas a la red, tienen direcciones IP válidas y que pueden enviar una sonda de paquetes Internet entre sí.

    Tabla 12. Tareas de configuración para el componente Site Selector

    Tarea Descripción Información relacionada
    Configurar la máquina Site Selector. Averigua los requisitos. Configuración de la máquina Site Selector
    Configurar máquinas en las que se va a equilibrar la carga. Configura la configuración de equilibrio de carga. Paso 4. Definir máquinas servidor con equilibrio de carga

    Métodos de configuración

    Para crear una configuración básica para el componente Site Selector de Load Balancer, hay cuatro métodos básicos para configurar el componente Site Selector:

    Línea de mandatos

    Es la manera más directa de configurar Site Selector. Los valores de los parámetros de mandatos deben especificarse en caracteres del idioma inglés. Las únicas excepciones son los nombres de host (se utiliza, por ejemplo, en los mandatos de nombre de sitio y servidor) y los nombres de archivo.

    Para iniciar Site Selector desde la línea de mandatos:

    1. Emita el mandato ssserver en el indicador de mandatos. Para detener el servicio, escriba ssserver stop
      Nota:
      En sistemas Windows, pulse Inicio > Configuración (en Windows 2000) > Panel de control > Herramientas administrativas > Servicios. Pulse con el botón derecho del ratón en IBM Site Selector y seleccione Iniciar. Para detener el servicio, efectúe los mismos pasos y seleccione Detener.
    2. A continuación, emita los mandatos de control de Site Selector que desee para definir la configuración. En los procedimientos de esta publicación se da por supuesto que se utiliza la línea de mandatos. El mandato es sscontrol. Para obtener más información sobre los mandatos, consulte el apartado Referencia de mandatos para Site Selector.

    Puede escribir una versión minimizada de los parámetros del mandato sscontrol. Sólo es necesario especificar las letras exclusivas de los parámetros. Por ejemplo, para obtener ayuda sobre el mandato para guardar archivos, puede escribir sscontrol he f en lugar de sscontrol help file.

    Para iniciar la interfaz de línea de mandatos, emita sscontrol para recibir un indicador de mandatos de sscontrol.

    Para finalizar la interfaz de línea de mandatos, emita exit o quit.

    Nota:
    En la plataforma Windows, se inicia automáticamente el dsserver del componente Dispatcher. Si sólo utiliza Site Selector y no emplea el componente Dispatcher, puede evitar que dsserver se inicie de forma automática haciendo lo siguiente:
    1. En Servicios Windows, pulse con el botón derecho del ratón en IBM Dispatcher.
    2. Seleccione Propiedades.
    3. En el campo Tipo de inicio, seleccione Manual.
    4. Pulse Aceptar y cierre la ventana Servicios.

    Scripts

    Los mandatos para configurar Site Selector pueden especificarse y ejecutarse juntos en un archivo de script de configuración.

    Nota:
    Para ejecutar rápidamente el contenido de un archivo de script (por ejemplo, miscript), use cualquiera de los siguientes mandatos:

    Para guardar la configuración actual en un archivo de script (por ejemplo, guardascript), ejecute el siguiente mandato:

    sscontrol file save guardascript
    

    Este mandato guardará el archivo de script de configuración en el directorio ...ibm/edge/lb/servers/configurations/ss.

    GUI

    Para obtener instrucciones y un ejemplo de la GUI, consulte la Figura 41.

    Para iniciar la GUI, siga estos pasos

    1. Asegúrese de que ssserver se está ejecutando. Como usuario root o administrador, emita lo siguiente desde el indicador de mandatos: ssserver
    2. A continuación, realice una de las acciones siguientes:

    Para configurar el componente Site Selector desde la GUI, primero debe seleccionar Site Selector en la estructura de árbol. Una vez que se ha conectado a un ssserver que se ejecuta en un host, puede crear nombres de sitio que contiene servidores, iniciar el gestor e iniciar los asesores.

    La GUI puede utilizarse para llevar a cabo las mismas tareas que realizaría con el mandato sscontrol. Por ejemplo, para definir un nombre de sitio con la línea de mandatos, especifique el mandato sscontrol sitename add nombre_sitio. Para definir un nombre de sitio desde la GUI, pulse con el botón derecho del ratón en Servidor de nombres y, a continuación, en el menú emergente, pulse con el botón izquierdo del ratón en Añadir nombre de sitio. Escriba el nombre del sitio en la ventana emergente y pulse Aceptar.

    Los archivos de configuración de Site Selector preexistentes pueden cargarse con las opciones Cargar nueva configuración (para sustituir completamente la configuración actual) y Añadir a la configuración actual (para actualizar la configuración actual) que aparecen el menú emergente Host. Debe guardar de forma periódica la configuración de Site Selector en un archivo con la opción Guardar archivo de configuración como que también se encuentra en el menú emergente Host. El menú Archivo situado en la parte superior de la GUI, permite guardar en un archivo las conexiones actuales del host o restaurar conexiones que se encuentran en archivos existentes en todos los componentes de Load Balancer.

    Para ejecutar un mandato desde la GUI: resalte el nodo Host en el árbol de la GUI y seleccione Enviar mandato.... en el menú emergente Host. En el campo de entrada de mandatos, escriba el mandato que desea ejecutar, por ejemplo: nameserver status. Aparecerán en la ventana proporcionada los resultados y el historial de los mandatos ejecutados en la sesión actual.

    Para acceder a la Ayuda, pulse el icono de signo de interrogación situado en la esquina superior derecha de la ventana de Load Balancer.

    Para obtener más información sobre cómo utilizar la GUI, consulte el Apéndice A. GUI: instrucciones generales.

    Asistente de configuración

    Si va a utilizar el asistente de configuración, siga estos pasos:

    1. Inicie el ssserver en Site Selector:

    2. Inicie la función de asistente de Site Selector, sswizard.

      Inicie este asistente desde el indicador de mandatos; para ello, emita el mandato sswizard. O bien, seleccione el Asistente de configuración desde el menú del componente Site Selector como se presenta en la GUI.

    El asistente de Site Selector le guiará, paso a paso, a través del proceso de creación de una configuración básica para el componente Site Selector. Formula preguntas sobre la red y le guía mientras define un nombre de sitio que permite a Site Selector equilibrar la carga de tráfico entre un grupo de servidores.


    Configuración de la máquina Site Selector

    Para configurar la máquina Site Selector, debe ser el usuario root (en sistemas AIX, HP-UX, Linux o Solaris) o el administrador (en los sistemas Windows).

    Necesitará un nombre de host que no es posible resolver para utilizarlo como nombre de sitio para el grupo de servidores que configura. El nombre de sitio es el nombre que los clientes utilizan para acceder al sitio (como www.suempresa.com). Site Selector equilibrará la carga del tráfico de este nombre de sitio entre el grupo de servidores mediante DNS.

    Paso 1. Iniciar la función de servidor

    Para iniciar la función de servidor de Site Selector, escriba ssserver en la línea de mandatos.

    Nota:
    Un archivo de configuración predeterminado (default.cfg) se carga de forma automática al iniciar ssserver. Si decide guardar la configuración en default.cfg, todo lo que se guarde en este archivo se cargará automáticamente la próxima vez que se inicie ssserver.

    Paso 2. Iniciar el servidor de nombres

    Para iniciar el servidor de nombres, escriba el mandato sscontrol nameserver start.

    De forma opcional, inicie el servidor de nombres utilizando la palabra clave bindaddress para establecer el enlace únicamente con la dirección especificada.

    Paso 3. Definir un nombre de sitio y establecer las opciones de nombre de sitio

    Site Selector equilibrará las peticiones enviadas para el nombre del sitio a los servidores correspondientes configurados para ello.

    El nombre de sitio es un nombre de host que no es posible resolver y que solicitará el cliente. El nombre del sitio debe ser un nombre de dominio plenamente cualificado (por ejemplo, www.dnsdownload.com). Cuando un cliente solicita este nombre de sitio, se devuelve una de las direcciones IP de servidor asociadas con este nombre.

    Para definir un nombre de sitio, emita el siguiente mandato:

    sscontrol sitename add nombre_sitio
    

    Para establecer las opciones del nombre de sitio, emita el siguiente mandato:

    sscontrol sitename set nombre_sitio opción valor
    

    Para obtener más información, consulte el apartado Referencia de mandatos para Site Selector.

    Paso 4. Definir máquinas servidor con equilibrio de carga

    Las máquinas servidor son las máquinas que ejecutan las aplicaciones en las que se desea realizar el equilibrio de carga. El servidor es el nombre simbólico o dirección decimal con puntos de la máquina servidor. Para definir un servidor en el nombre de sitio desde el paso 3, emita el siguiente mandato:

    sscontrol server add nombre_sitio:servidor
    

    Para poder realizar el equilibrio de carga, debe definir más de un servidor bajo un nombre de sitio.

    Paso 5. Iniciar la función de gestor (opcional)

    La función de gestor mejora el equilibrio de carga. Antes de iniciar la función de gestor, asegúrese de que Metric Server está instalado en todas las máquinas con equilibrio de carga.

    Para iniciar el gestor, emita el siguiente mandato:

    sscontrol manager start
    

    Paso 6. Iniciar la función de asesor (opcional)

    Los asesores proporcionan al gestor más información sobre la capacidad que tienen de las máquinas de servidor con equilibrio de carga para responder a las peticiones. Un asesor es específico de un protocolo. Load Balancer ofrece muchos asesores. Por ejemplo, para iniciar el asesor HTTP para un nombre de sitio específico, emita el siguiente mandato:

    sscontrol advisor start http nombre_sitio:puerto
    

    Paso 7. Definir la métrica del sistema (opcional)

    Consulte el apartado Metric Server para obtener información sobre la utilización de métrica de sistema y Metric Server.

    Paso 8. Definir las proporciones del nombre de sitio según sea necesario

    Si inicia asesores, puede modificar la proporción de la importancia dada a la información (puerto) de asesor que se incluye en las decisiones para el equilibrio de carga. Para definir las proporciones del nombre de sitio, emita el mandato sscontrol sitename set nombre_sitio proportions. Para obtener más información, consulte el apartado Proporción de la importancia otorgada a la información de estado


    Configuración de máquinas de servidor para el equilibrio de carga

    Utilice Metric Server con el componente Site Selector. Consulte el apartado Metric Server para obtener información sobre cómo configurar Metric Server en todas las máquinas de servidor en las que Site Selector está realizando el equilibrio de carga.


    Componente Cisco CSS Controller

    En esta parte se proporciona información sobre la configuración de inicio rápido, consideraciones de planificación y describe los métodos para configurar el componente Cisco CSS Controller de Load Balancer. Contiene los capítulos siguientes:


    Configuración de inicio rápido

    Este ejemplo de inicio rápido muestra cómo crear una configuración mediante el componente Cisco CSS Controller. Cisco CSS Controller proporciona información de pesos del servidor que ayuda al conmutador Cisco CSS a determinar la selección de servidor óptima para decisiones de equilibrio de carga.

    Figura 25. Configuración sencilla de Cisco CSS Controller

    Un gráfico que muestra una configuración sencilla
de Cisco CSS Controller


    Qué necesita

    Para este ejemplo de configuración de inicio rápido, necesitará lo siguiente:


    Preparativos

    Asegúrese de se completan estos pasos antes de comenzar la configuración de este ejemplo:


    Utilización del componente Cisco CSS Controller

    Con Cisco CSS Controller, puede crear una configuración mediante la línea de mandatos o la interfaz gráfica de usuario (GUI). Para este ejemplo de inicio rápido, los pasos de configuración se demuestran utilizando la línea de mandatos.

    Nota:
    Los valores de los parámetros deben escribirse en caracteres del idioma inglés. Las únicas excepciones son los valores de parámetros para los nombres de host y de archivos.

    Configuración con la línea de mandatos

    Desde un indicador de mandatos, siga estos pasos:

    1. Inicie ccoserver en Load Balancer. Como usuario root o administrador, emita lo siguiente en el indicador de mandatos: ccoserver
    2. Añada un consultor de conmutador a la configuración de Cisco CSS Controller y especifique la dirección de la interfaz IP del conmutador Cisco CSS y el nombre de comunidad de lectura-grabación. Estos valores deben coincidir con los atributos correspondientes en el conmutador Cisco CSS:

      ccocontrol consultant add SwConsultant-1 address 9.17.32.50 community public

      Esto comprobará la conectividad con el conmutador Cisco CSS y verificará que el nombre de comunidad de lectura-grabación SNMP funcione correctamente.

    3. Añada ownercontent (OwnerContent-1) al consultor de conmutador, especificando ownername (OwnerName-1) y contentrule (ContentRule-1):

      ccocontrol ownercontent add SwConsultant-1:OwnerContent-1 ownername OwnerName-1 contentrule ContentRule-1

      Estos valores deben coincidir con los atributos correspondientes en el conmutador Cisco CSS.

      Cisco CSS Controller puede ahora comunicarse con el conmutador en SNMP y obtendrá la información de configuración necesaria del conmutador. Después de este paso, aparecerá información en Cisco CSS Controller acerca de qué servicios están configurados en el conmutador Cisco CSS para el ownercontent especificado.

    4. Configure el tipo de métricas que va a recopilar (conexión activa, velocidad de conexión, HTTP) y la proporción para cada métrica en ownercontent:

      ccocontrol ownercontent metrics SwConsultant-1:OwnerContent-1 activeconn 45 connrate 45 http 10

      Este mandato configurará qué información de métrica y proporción desea recopilar de los servicios que se va a utilizar para el cálculo de peso. La proporción total de todas las métricas debe ser igual a 100.

    5. Inicie la función de consultor de conmutador de Cisco CSS Controller:

      ccocontrol consultant start SwConsultant-1

      Con este mandato, se iniciarán todos los recopiladores de métricas y comenzarán los cálculos de peso de servicio. Cisco CSS Controller comunica el resultado de sus cálculos de peso de servicio al conmutador Cisco CSS mediante SNMP.

    La configuración básica de Cisco CSS Controller ahora está completa.

    Prueba de la configuración

    Compruebe si la configuración funciona:

    1. Desde el navegador Web cliente, vaya a la ubicación http://www.Intersplashx.com . Si se visualiza una página, significa que la configuración funciona.
    2. Vuelva a cargar la página en el navegador Web.
    3. Observe los resultados del mandato siguiente: ccocontrol service report SwConsultant-1:OwnerContent-1:Service-1. La columna de conexiones totales de los dos servidores Web debería sumarse a "2."

    Configuración con la interfaz gráfica de usuario (GUI)

    Para obtener información sobre el uso de la GUI de Cisco CSS Controller, consulte los apartados GUI y Apéndice A. GUI: instrucciones generales.


    Planificación para Cisco CSS Controller

    En este capítulo se describe lo que debe tener en cuenta el planificador de la red antes de instalar y configurar el componente Cisco CSS Controller.

    Este capítulo incluye:


    Requisitos del sistema

    Si desea obtener los requisitos de hardware y software, visite la siguiente página Web: http://www.ibm.com/support/docview.wss?rs=180&uid=swg27006921

    También necesitará


    Consideraciones de planificación

    Cisco CSS Controller gestiona un conjunto de consultores de conmutador. Cada consultor determina pesos para servicios a los que un solo conmutador equilibra la carga. El conmutador para el que el consultor proporciona pesos se configura para equilibrar la carga del contenido. El consultor utiliza el protocolo SNMP para enviar los pesos calculados al conmutador. El conmutador utiliza los pesos para seleccionar un servicio para la regla de contenido que está equilibrando la carga cuando el algoritmo de equilibrio de carga es de turno rotativo sopesado. Para determinar los pesos, el consultor utiliza uno o más fragmentos de información:

    Si desea una descripción del equilibrio de carga del contenido o información detallada sobre cómo configurar el conmutador, consulte el manual Cisco Content Services Switch Getting Started Guide.

    Para que un consultor obtenga la información necesaria para determinar los pesos del servicio, debe tener:

    Colocación del consultor en la red

    Como se indica en la Figura 26, el consultor puede conectarse a la red detrás del conmutador o los conmutadores para los que aquél proporciona pesos. Algunos parámetros deben configurarse en el conmutador y otros en el controlador para habilitar la conectividad entre el controlador, el conmutador y los servicios.

    En la Figura 26:

    Si desea información detallada sobre cómo configurar redes VLAN y direccionamiento IP en el conmutador, consulte el manual Cisco Content Services Switch Getting Started Guide.

    Figura 26. Ejemplo de un consultor conectado detrás de los conmutadores

    Consultor detrás de los conmutadores

    Puede gestionar Cisco CSS Controller utilizando cualquiera de las interfaces siguientes:

    Para la gestión remota, en la Figura 27:

    Si desea información detallada, consulte el manual Cisco Content Services Switch Getting Started Guide.

    Figura 27. Ejemplo de consultor (con el asociado de alta disponibilidad opcional), configurado detrás del conmutador con la interfaz de usuario delante del conmutador

    Consultor detrás del conmutador; interfaz de usuario delante del conmutador, asociado de alta disponibilidad opcional

    Alta disponibilidad

    La alta disponibilidad del controlador mejora las posibilidades de tolerancia a errores de Load Balancer. La alta disponibilidad del controlador, diseñado teniendo en cuenta la alta disponibilidad de reenvío de paquetes, implica dos controladores en ejecución a la vez, uno con la función de maestro y el otro con la función de secundario.

    Cada controlador se configura con información de conmutador idéntica y sólo un controlador está activo en un momento dado. Esto significa que, como se determina por la lógica de alta disponibilidad, sólo el controlador activo calcula y actualiza el conmutador con los nuevos pesos.

    La alta disponibilidad del controlador se comunica con su asociado utilizando paquetes UDP (User Datagram Protocol) sencillos en una dirección y puerto que puede configurar. Estos paquetes se utilizan para intercambiar información entre controladores dado que pertenece a alta disponibilidad (información de alcance) y para determinar la disponibilidad del controlador de asociados (pulsos). Si el controlador en espera determina que el controlador activo ha dado un error por cualquier motivo, el controlador en espera se hace con el control del controlador activo que ha dado el error. El controlador en espera ahora pasa a ser el controlador activo y comienza a calcular y a actualizar el conmutador con nuevos pesos.

    Además de la disponibilidad de los asociados, se pueden configurar destinos de alcance para alta disponibilidad. La alta disponibilidad del controlador utiliza la información de alcance para determinar qué controlador está activo y cuál está en espera. El controlador activo es el que puede ejecutar ping en más destinos y es accesible desde su asociado.

    Consulte el apartado Alta disponibilidad para obtener más información.

    Cálculo de pesos

    Si el consultor determina que un servicio no está disponible, suspenderá ese servicio en el conmutador para impedir que el conmutador tenga en cuenta el servidor cuando cargue peticiones de equilibrado. Cuando el servicio está disponible de nuevo, el consultor activa el servicio en el conmutador para que se considere en las peticiones de equilibrio de carga.

    Determinación de problemas

    Cisco CSS Controller envía entradas a los archivos de anotaciones cronológicas siguientes:

    Estos archivos de anotaciones cronológicas están ubicados en los directorios siguientes:

    En cada archivo de anotaciones cronológicas, puede establecer su tamaño y el nivel de anotaciones. Consulte el apartado Utilización de los registros de Load Balancer para obtener más información.


    Configuración de Cisco CSS Controller

    Antes de llevar a cabo los pasos de este capítulo, consulte el apartado Planificación para Cisco CSS Controller. En este capítulo se explica cómo crear una configuración básica para el componente Cisco CSS Controller de Load Balancer.


    Visión general de las tareas de configuración

    Antes de llevar a cabo los métodos de configuración descritos en este capítulo:

    1. Asegúrese de que el Conmutador Cisco CSS y todas las máquinas de servidor están configuradas correctamente.
    2. Configure Cisco CSS Controller, asegurándose de que la dirección del conmutador Cisco CSS y el nombre de comunidad SNMP coinciden con los atributos correspondientes en el Conmutador Cisco CSS. Consulte el apartado ccocontrol consultant -- configurar y controlar un consultor para obtener información sobre cómo configurar el consultor.


    Tabla 13. Tareas de configuración para el componente Cisco CSS Controller

    Tarea Descripción Información relacionada
    Configurar la máquina Cisco CSS Controller Averigua los requisitos Configuración del controlador para la máquina Conmutadores Cisco CSS
    Probar la configuración Confirma que la configuración funciona Comprobación de la configuración

    Métodos de configuración

    Existen tres métodos para crear una configuración básica para el componente Cisco CSS Controller de Load Balancer:

    Línea de mandatos

    Este método es la manera más directa de configurar Cisco CSS Controller. En los procedimientos de esta publicación se da por supuesto que se utiliza la línea de mandatos. Los valores de los parámetros de mandatos deben especificarse en caracteres del idioma inglés. Las únicas excepciones son los nombres de host (se utiliza, por ejemplo, en el mandato consultant add) y los nombres de archivo.

    Para iniciar Cisco CSS Controller desde la línea de mandatos:

    1. Emita el mandato ccoserver en el indicador de mandatos. Para detener el servidor, escriba: ccoserver stop

      Notas:

      1. En sistemas Windows, pulse Inicio > Configuración (en Windows 2000) > Panel de control > Herramientas administrativas> Servicios. Pulse con el botón derecho del ratón en IBM Cisco CSS Controller y seleccione Iniciar. Para detener el servicio, efectúe los mismos pasos y seleccione Detener.

      2. En sistemas Windows, puede iniciar ccoserver automáticamente durante el arranque:
        1. Pulse Inicio > Configuración > Panel de control > Herramientas administrativas > Servicios.
        2. Pulse con el botón derecho del ratón en IBM Cisco CSS Controller y seleccione Propiedades.
        3. Pulse la flecha para el campo del tipo de Inicio y seleccione Automático.
        4. Pulse Aceptar.
    2. A continuación, emita los mandatos de control de Cisco CSS Controller que desee para definir la configuración. En los procedimientos de esta publicación se da por supuesto que se utiliza la línea de mandatos. El mandato es ccocontrol. Para obtener más información sobre los mandatos, consulte el apartado Referencia de mandatos para Cisco CSS Controller.

    Puede entrar una versión abreviada de los parámetros del mandato ccocontrol. Sólo es necesario especificar las letras exclusivas de los parámetros. Por ejemplo, para obtener ayuda sobre el mandato para guardar archivos, puede escribir ccocontrol he f en lugar de ccocontrol help file.

    Para iniciar la interfaz de línea de mandatos, emita ccocontrol para recibir un indicador de mandatos de ccocontrol.

    Para finalizar la interfaz de línea de mandatos, emita exit o quit.

    Nota:
    En plataformas Windows, se inicia automáticamente el dsserver del componente Dispatcher. Si sólo utiliza Cisco CSS Controller y no emplea el componente Dispatcher, puede evitar que dsserver se inicie de forma automática haciendo lo siguiente:
    1. En Servicios Windows, pulse con el botón derecho del ratón en IBM Dispatcher.
    2. Seleccione Propiedades.
    3. En el campo Tipo de inicio, seleccione Manual.
    4. Pulse Aceptar y cierre la ventana Servicios.

    XML

    La configuración definida actualmente puede guardarse en un archivo XML. Esto permite cargar la configuración más adelante cuando desee volver a crear rápidamente la configuración.

    Para ejecutar el contenido de un archivo XML (por ejemplo, miscript.xml), utilice cualquiera de los siguientes mandatos:

    Los archivos XML se guardan en el directorio ...ibm/edge/lb/servers/configurations/cco/.

    GUI

    Para obtener instrucciones generales y un ejemplo de la interfaz gráfica de usuario (GUI), consulte la Figura 41.

    Para iniciar la GUI, siga estos pasos

    1. Si ccoserver todavía no está en ejecución, inícielo escribiendo lo siguiente como usuario root:

      ccoserver.

    2. A continuación, realice una de las acciones siguientes:

    Para configurar el componente Cisco CSS Controller desde la GUI:

    1. Pulse con el botón derecho del ratón en Cisco CSS Controller en la estructura de árbol.
    2. Conéctese a un host.
    3. Cree uno o más consultores de conmutadores que incluya el contenido de propietario que desee y la métrica asociada.
    4. Inicie el consultor.

    La GUI puede utilizarse para llevar a cabo las mismas tareas que realizaría con el mandato ccocontrol. Por ejemplo:

    Para ejecutar un mandato desde la GUI:

    1. Pulse con el botón derecho del ratón en el nodo Host y seleccione Enviar mandato...
    2. En el campo de entrada de mandatos, escriba el mandato que desea ejecutar; por ejemplo, consultant report.
    3. Pulse Enviar.

    El resultado y el historial de los mandatos que se ejecutan en la sesión actual aparecen en el recuadro Resultado.

    Para acceder a la Ayuda, pulse el icono de signo de interrogación situado en la esquina superior derecha de la ventana de Load Balancer.

    Para obtener más información sobre cómo utilizar la GUI, consulte el Apéndice A. GUI: instrucciones generales.


    Configuración del controlador para la máquina Conmutadores Cisco CSS

    Antes de configurar la máquina Cisco CSS Controller, debe ser usuario root (en los sistemas AIX, HP-UX, Linux o Solaris) o el administrador (en los sistemas Windows).

    El consultor debe poder conectarse al conmutador Cisco CSS como un administrador de Cisco CSS.

    Al configurar el consultor, debe configurar la dirección y el nombre de comunidad SNMP de modo que coincida con los atributos correspondientes en el conmutador Cisco CSS.

    Para obtener ayuda sobre los mandatos utilizados en este procedimiento, consulte el apartado Referencia de mandatos para Cisco CSS Controller.

    Paso 1. Iniciar la función de servidor

    Si ccoserver todavía no está en ejecución, escriba ccoserver como usuario root para iniciarlo.

    Nota:
    En sistemas Windows, pulse Inicio > Configuración (en Windows 2000) > Panel de control > Herramientas administrativas > Servicios. Pulse con el botón derecho del ratón en IBM Cisco Controller y seleccione Iniciar.

    Paso 2. Iniciar la interfaz de línea de mandatos

    Escriba ccocontrol para iniciar la interfaz de línea de mandatos.

    Paso 3. Configurar el consultor

    Debe configurar la dirección del conmutador y el nombre de comunidad SNMP. Estos valores deben coincidir con los atributos correspondientes en el conmutador Cisco CSS.

    Para añadir un consultor, escriba:

    consultant add ID_consultor_conmutador address dirección_IP_conmutador 
    community nombre_comunidad
    

    Paso 3. Configurar un contenido de propietario

    Un contenido de propietario es una representación de una regla de contenido para un propietario, que está definido en el conmutador Cisco CSS. El nombre del propietario y el nombre de regla de contenido debe coincidir con lo definido en el conmutador.

    Para definir un contenido de propietario, escriba:

    ownercontent add ID_consultor_conmutador:ID_contenido_propietario ownername
    nombre_propietario 
    contentrule nombre_regla_contenido
    

    Paso 4. Verificar que los servicios están definidos correctamente

    Cuando se define el contenido de propietario, el consultor realiza la configuración recuperando los servicios configurado en el conmutador. Compare la configuración del conmutador con la configuración del consultor para asegurarse de que los servicios coinciden.

    Paso 5. Configurar métrica

    La métrica son las medidas utilizadas para determinar los pesos de servicios y las proporciones asociadas (importancia de una métrica comparada con otra), y puede ser cualquier combinación de métrica de datos de conexiones, métrica de asesor de aplicaciones y métricas de Metric Server. Las proporciones siempre deben sumar 100.

    Al configurar un contenido de propietario, la métrica predeterminada se define como activeconn y connrate. Si desea métricas adicionales o si desea métricas completamente distintas de los resultados, escriba:

    ownercontent metrics ID_consultor_conmutador:ID_contenido_propietario métrica1
    proporción1 
    métrica2 proporción2... métricaN proporciónN
    

    Paso 6. Iniciar el consultor

    Para iniciar el consultor, escriba:

    consultant start ID_consultor_conmutador
    

    Así se inician los recopiladores de métricas y empieza el cálculo del peso.

    Paso 7. Iniciar Metric Server (opcional)

    Si se ha definido la métrica del sistema en el paso 5, se debe iniciar Metric Server en las máquinas de servicio. Consulte el apartado Metric Server para obtener información sobre la utilización de Metric Server.

    Paso 8. Configurar alta disponibilidad (opcional)

    Para configurar la alta disponibilidad, escriba:

    highavailability add address dirección_IP partneraddress dirección_IP port 80 
    role primario
    

    En un entorno de alta disponibilidad, puede configurar varios conmutadores. Para asegurarse de que la información de peso siempre está disponible cuando un conmutador asumen el control de otro, Cisco CSS Controller debe configurarse para proporcionar pesos para todos los conmutadores y sus reservas.

    Si desea información detallada sobre cómo utilizar y configurar la alta disponibilidad del controlador, consulte el apartado Características avanzadas de Cisco CSS Controller y Nortel Alteon Controller.


    Prueba de la configuración

    Compruebe si la configuración funciona:

    1. Establezca el nivel de anotaciones cronológicas del consultor en 4.
    2. Desconecte un servidor del conmutador Cisco CSS durante un minuto o bien detenga el servidor de aplicaciones durante un minuto.
    3. Vuelva a conectar el servidor o reinicie el servidor de aplicaciones.
    4. Establezca el nivel de anotaciones cronológicas del consultor en el nivel que desee (1).
    5. Examine el archivo consultant.log que se encuentra en los siguientes directorios y busque las palabras setServerWeights setting service:

    Componente Nortel Alteon Controller

    En esta parte se proporciona información sobre la configuración de inicio rápido, consideraciones de planificación y describe los métodos para configurar el componente Nortel Alteon Controller de Load Balancer. Contiene los capítulos siguientes:


    Configuración de inicio rápido

    Este ejemplo de inicio rápido muestra cómo crear una configuración mediante el componente Nortel Alteon Controller. Nortel Alteon Controller proporciona pesos del servidor al conmutador Nortel Alteon Web. Estos pesos se utilizan para seleccionar servidores para servicios a los que el conmutador equilibra la carga.

    Figura 28. Configuración sencilla de Nortel Alteon Controller

    Gráfico que muestra un Cliente, una nube de Internet, una máquina Nortel Alteon Controller, conmutador Nortel Alteon Web y máquinas de servidor.


    Qué necesita

    Para este ejemplo de configuración de inicio rápido, necesitará lo siguiente:


    Preparativos

    Asegúrese de se completan estos pasos antes de comenzar la configuración de este ejemplo:


    Configuración del componente Nortel Alteon Controller

    Con Nortel Alteon Controller, puede crear una configuración mediante la línea de mandatos o la interfaz gráfica de usuario (GUI). Para este ejemplo de inicio rápido, los pasos de configuración se demuestran utilizando la línea de mandatos.

    Nota:
    Los valores de los parámetros deben escribirse en caracteres del idioma inglés. Las únicas excepciones son los valores de parámetros para los nombres de host y de archivos.

    Configuración con la línea de mandatos

    Desde un indicador de mandatos, siga estos pasos:

    1. Inicie el nalserver en Nortel Alteon Controller. Como usuario root o administrador, emita lo siguiente desde el indicador de mandatos: nalserver
    2. Añada un consultor a la configuración de Nortel Alteon Controller, especificando la dirección de la interfaz IP del conmutador Nortel Alteon Web. (Sólo especifique la comunidad de lectura y la de grabación si es distinta de la que toma de manera predeterminada (pública, privada):

      nalcontrol consultant add Consultant-1 address 9.87.32.50

      Esto comprobará la conectividad con el conmutador Nortel Alteon Web y verificará que los nombres de comunidad SNMP funcionan correctamente.

    3. Añada un servicio (Service-1) al consultor (Consultant-1), especificando el identificador de servidor virtual (1) y el número de puerto virtual (80) para el servicio:

      nalcontrol service add Consultant-1:Service-1 vsid 1 vport 80

      Nortel Alteon Controller se comunicará con el conmutador en SNMP y obtendrá la información de configuración necesaria del conmutador. Después de este paso, aparecerá información en Nortel Alteon Controller acerca de qué servidores están configurados en el conmutador Nortel Alteon Web para el servicio.

    4. Configure las medidas que se van a recopilar para el conjunto de servidores asociados al servicio:

      nalcontrol service metrics Consultant-1:Service-1 http 40 activeconn 30 connrate 30

      Este mandato configurará qué información de métrica desea recopilar de los servidores y la importancia relativa de esas métricas durante el cálculo del peso.

    5. Inicie la función de consultor de Nortel Alteon Controller:

      nalcontrol consultant start Consultant-1

      Con este mandato, se iniciarán todos los recopiladores de métricas y comenzarán los cálculos de peso de servidor. Nortel Alteon Controller comunica el resultado de sus cálculos de peso de servidor al conmutador Nortel Alteon Web mediante SNMP.

    La configuración básica de Nortel Alteon Controller ahora está completa.

    Prueba de la configuración

    Compruebe si la configuración funciona:

    1. Desde el navegador Web cliente, vaya a la ubicación http://www.Intersplashx.com . Si se visualiza una página, significa que la configuración funciona.
    2. Vuelva a cargar la página en el navegador Web.
    3. Observe los resultados del mandato siguiente: nalcontrol service report Consultant-1:Service-1. La columna de conexiones totales de los dos servidores Web debería sumarse a "2."

    Configuración con la interfaz gráfica de usuario (GUI)

    Para obtener información sobre el uso de la GUI de Nortel Alteon Controller, consulte los apartados GUI y Apéndice A. GUI: instrucciones generales.


    Planificación para Nortel Alteon Controller

    En este capítulo se describe lo que debe tener en cuenta el planificador de la red antes de instalar y configurar el componente Nortel Alteon Controller.

    Este capítulo incluye:


    Requisitos del sistema

    Si desea obtener los requisitos de hardware y software, visite la siguiente página Web: http://www.ibm.com/support/docview.wss?rs=180&uid=swg27006921

    También necesitará


    Consideraciones de planificación

    Nortel Alteon Controller gestiona un conjunto de consultores de conmutador. Cada consultor determina pesos para servidores a los que un solo conmutador equilibra la carga. El conmutador para el que el consultor proporciona pesos se configura para equilibrar la carga del servidor. El consultor utiliza el protocolo SNMP para enviar los pesos calculados al conmutador. El conmutador utiliza los pesos para seleccionar un servidor para el servicio al que está equilibrando la carga. Para determinar los pesos, el consultor utiliza uno o más fragmentos de información:

    Si desea una descripción del equilibrio de carga del servidor o información detallada sobre cómo configurar el conmutador, consulte el manual Nortel Alteon Web OS Application Guide.

    Para que un consultor obtenga la información necesaria para determinar los pesos del servidor, debe tener:

    Colocación del consultor en la red

    El consultor puede conectarse a la red delante o detrás del conmutador o los conmutadores para los que proporciona pesos. Algunos parámetros deben configurarse en el conmutador y otros en el controlador para habilitar la conectividad entre el controlador, el conmutador y los servidores.

    En la Figura 29:

    Consulte el manual Nortel Alteon Web OS Application Guide o Command Reference para obtener información detallada sobre cómo configurar las VLAN y el direccionamiento IP en el conmutador.

    Figura 29. Ejemplo de un consultor conectado detrás del conmutador

    Consultor detrás de los conmutadores

    En la Figura 30:

    Figura 30. Ejemplo de consultor conectado mediante una intranet delante de un conmutador

    Consultor conectado mediante una intranet
delante de un conmutador

    Puede gestionar Nortel Alteon Controller utilizando cualquiera de las interfaces siguientes:

    En la Figura 31:

    Figura 31. Ejemplo de consultor detrás del conmutador e interfaz de usuario delante del conmutador

    Consultor detrás del conmutador;interfaz de usuario delante del conmutador

    Atributos de servidor en el conmutador (establecidos por el controlador)

    Cuando un consultor calcula los pesos para servidores que proporcionan un servicio al que el conmutador equilibra la carga, el consultor inhabilita la comprobación normal de estado del servidor en el conmutador para reducir el tráfico innecesario en los servidores. El consultor vuelve a habilitar la comprobación de estado cuando deja de proporcionar pesos para el servicio. El intervalo de comprobación de estado del servidor corresponde a la variable MIB slbNewCgRealServerPingInterval.

    Si el consultor determina que un servidor no está disponible, el consultor establece el número máximo de conexiones del servidor en cero para impedir que el conmutador tenga en cuenta el servidor cuando cargue peticiones de equilibrado. Cuando se pone de nuevo disponible el servidor, el número máximo de conexiones se restaura a su valor original. El valor máximo de conexiones del servidor corresponde a la variable MIB slbNewCfgRealServerMaxCons.

    Cuando se calcula un peso para un servidor real, se establece el peso para el servidor. El valor de peso del servidor corresponde a la variable MIB slbNewCfgRealServerWeight.

    Configuración de servidores de reserva

    El conmutador permite la configuración de varios servidores de reserva de otros. Si el conmutador determina que un servidor que tiene otro de reserva no está disponible, el conmutador debería empezar a enviar peticiones al de reserva. Cuando el consultor calcula pesos para un servicio con un servidor de reserva, calcula los pesos para los dos servidores, el de reserva y el primario y, posteriormente tiene pesos que va a utilizar para la selección de servidor cuando se requiera el de reserva.

    El peso para el servidor de reserva podría ser mayor que el peso para un servidor primario. Esto es porque no se le reenvía ninguna petición, de modo que tiene pocas cargas hasta que el conmutador determina utilizarlo.

    Para impedir que los recursos del servidor estén desocupados, es una práctica común que los servidores asignados a un servicio se utilicen de reserva de servidores asignados a un servicio distinto. Cuando implementa una configuración de este tipo, no asigne los mismos servidores reales a varios servicios activos a la vez. Si esto sucede, el consultor sobrescribirá el peso para el servidor para cada servicio del que es parte el servidor.

    Cada servidor real se identifica por un entero y tiene un peso y un atributo de dirección IP. Dos servidores reales podrían tener la misma dirección IP. En este caso, se asocian dos servidores reales a la misma máquina servidor física. Los servidores reales identificados como reserva sólo deberían configurarse como reserva para un único servicio. Si las mismas máquinas servidor físicas harán de servidores de reserva asignadas a varios servicios, deberán configurarse una vez para cada servicio y se les dará una identificación de servidor que es única para cada servicio. Esto permite que los servidores de reserva tengan un único peso asignado a ellos para cada servicio del que hacen de reserva.

    Figura 32. Ejemplo de consultor configurado con servidores de reserva

    Consultor configurado con servidores de reserva

    Configuración de grupos

    Los servidores en un conmutador se pueden configurar como parte de varios grupos y los grupos en el conmutador se pueden configurar con servicios de varios servicios.

    Dado que se puede configurar el mismo servidor para varios servicios, el peso se calcula para cada servicio del que el servidor forma parte. Es posible, por lo tanto, que el peso sea incorrecto porque se desconoce en un momento dado el peso destinado al servicio.

    Además, si el consultor determina pesos para un servicio y no para otro, es posible que el servicio para el que el consultor no calcula pesos tenga inhabilitada la comprobación de estado del servidor. En este caso, quizá el conmutador no equilibre correctamente la carga de ese servicio.

    Debido a estas posibilidades, debe asegurarse de que no se asigna un servidor real a varios servicios de los que se está equilibrando la carga. Esto no significa que la misma máquina servidor no pueda atender peticiones de varios servicios. Significa que debe configurarse un servidor real con un identificador único en el conmutador para cada servicio para el que la máquina servidor gestionará peticiones.

    Alta disponibilidad

    Tanto Nortel Alteon Controller como el conmutador de Nortel Alteon Web tienen posibilidades de alta disponibilidad.

    Puede configurar dos controladores para ejecutarse en sistemas distintos en una configuración de reposo dinámico.

    Dos o más conmutadores pueden volver a activarse entre sí cuando los configura para actuar como VIR (direccionador de interfaz de IP virtual) o como VSR (direccionador de servidor IP virtual).

    Un consultor (gestionado por el controlador) proporciona pesos para un conmutador únicamente. Debido a que un conmutador de reserva podría hacerse con el control del maestro, debe configurar el controlador con un consultor para cada conmutador que tenga la posibilidad de ser maestro. De este modo, cuando un conmutador pasa a ser maestro, se asegura que se le proporcionan pesos.

    Además, cuando los controladores se conectan a un VIR, se asegura que tienen comunicación con los servidores, los conmutadores y el controlador de reserva, en caso de que se perdiera la conectividad con uno de los conmutadores.

    Consulte el manual Nortel Alteon Web OS Application Guide para obtener información sobre alta disponibilidad en el conmutador.

    La alta disponibilidad del controlador mejora las posibilidades de tolerancia a errores de Load Balancer. La alta disponibilidad del controlador, diseñado teniendo en cuenta la alta disponibilidad de reenvío de paquetes clásica, implica dos controladores en ejecución a la vez, uno con la función de maestro y el otro con la función de secundario.

    Cada controlador se configura con información de conmutador idéntica. Similar a la alta disponibilidad clásica, sólo un controlador está activo en un momento dado. Esto significa que, como se determina por la lógica de alta disponibilidad, sólo el controlador activo calcula y actualiza el conmutador con los nuevos pesos.

    La alta disponibilidad del controlador se comunica con su asociado utilizando paquetes UDP (User Datagram Protocol) sencillos en una dirección y puerto que puede configurar. Estos paquetes se utilizan para intercambiar información entre controladores dado que pertenece a alta disponibilidad (información de alcance) y para determinar la disponibilidad del controlador de asociados (pulsos). Si el controlador en espera determina que el controlador activo ha dado un error por cualquier motivo, el controlador en espera se hace con el control del controlador activo que ha dado el error. El controlador en espera ahora pasa a ser el controlador activo y comienza a calcular y a actualizar el conmutador con nuevos pesos.

    Además de la disponibilidad de los asociados, se pueden configurar destinos de alcance para alta disponibilidad. Como con la alta disponibilidad clásica, la alta disponibilidad del controlador utiliza la información de alcance para determinar qué controlador está activo y cuál está en espera. El controlador activo es el que puede ejecutar ping en más destinos y es accesible desde su asociado.

    Consulte el apartado Alta disponibilidad para obtener más información.

    En la Figura 33:

    Figura 33. Ejemplo de alta disponibilidad de Nortel Alteon Controller y del conmutador de Nortel Alteon Web

    Alta disponibilidad de controlador y conmutador

    Ajuste

    Para impedir que el cambio de pesos se produzca muy a menudo, puede configurar el consultor con un umbral de sensibilidad. El umbral de sensibilidad especifica la cantidad de cambios que deben tener lugar entre los pesos antiguos y los nuevos antes de que el peso pueda cambiar. Consulte el apartado Umbral de sensibilidad para obtener más información.

    Si el conmutador pasa a estar demasiado ocupado actualizando pesos, puede aumentar el tiempo de inactividad del consultor para reducir el tráfico entre el controlador y los servidores y el conmutador. El tiempo de inactividad establece el número de segundos de inactividad entre ciclos de establecimiento del peso.

    Si los servidores gestionan demasiadas peticiones de supervisión del consultor, puede modificar el tiempo de inactividad de los recopiladores de métricas. Si desea una descripción detallada, consulte el apartado Tiempos de inactividad en el cálculo de pesos.

    Determinación de problemas

    Cisco CSS Controller envía entradas a los archivos de anotaciones cronológicas siguientes:

    Estos archivos de anotaciones cronológicas están ubicados en los directorios siguientes:

    En cada archivo de anotaciones cronológicas, puede establecer su tamaño y el nivel de anotaciones. Consulte el apartado Utilización de los registros de Load Balancer para obtener más información.


    Configuración de Nortel Alteon Controller

    Antes de llevar a cabo los pasos de este capítulo, consulte el apartado Planificación para Nortel Alteon Controller. En este capítulo se explica cómo crear una configuración básica para el componente Nortel Alteon Controller de Load Balancer.


    Visión general de las tareas de configuración

    Antes de llevar a cabo los métodos de configuración descritos en este capítulo, asegúrese de que el conmutador de Nortel Alteon Web y todas las máquinas de servidor se han configurado correctamente.


    Tabla 14. Tareas de configuración para el componente Nortel Alteon Controller

    Tarea Descripción Información relacionada
    Configurar el conmutador Nortel Alteon Web y los servidores Configurar el conmutador. Configurar el conmutador, en la página (SETSWITCH)
    Configurar la máquina Nortel Alteon Controller Configura el controlador. Paso 1. Iniciar la función de servidor
    Probar la configuración Confirma que la configuración funciona Comprobación de la configuración

    Métodos de configuración

    Existen tres métodos para crear una configuración básica para el componente Nortel Alteon Controller de Load Balancer:

    Línea de mandatos

    Se trata de la manera más directa de configurar Nortel Alteon Controller. En los procedimientos de esta publicación se da por supuesto que se utiliza la línea de mandatos.

    Para iniciar Nortel Alteon Controller desde la línea de mandatos:

    1. Emita el mandato nalserver en el indicador de mandatos. Para detener el servicio, escriba: nalserver stop

      Notas:

      1. En sistemas Windows, pulse Inicio > Configuración (en Windows 2000) > Panel de control > Herramientas administrativas > Servicios. Pulse con el botón derecho del ratón en IBM Nortel Alteon Controller y seleccione Iniciar. Para detener el servicio, efectúe los mismos pasos y seleccione Detener.

      2. En sistemas Windows, puede iniciar nalserver automáticamente durante el arranque:
        1. Pulse Inicio > Configuración (en Windows 2000) > Panel de control > Herramientas administrativas > Servicios.
        2. Pulse con el botón derecho del ratón en IBM Nortel Alteon Controller y seleccione Propiedades.
        3. Pulse la flecha del campo Tipo de inicio y seleccione Automático.
        4. Pulse Aceptar.
    2. A continuación, emita los mandatos de control de Nortel Alteon Controller que desee para definir la configuración. En los procedimientos de esta publicación se da por supuesto que se utiliza la línea de mandatos. El mandato es nalcontrol. Para obtener más información sobre los mandatos, consulte el apartado Referencia de mandatos para Nortel Alteon Controller.

    Puede utilizar una versión abreviada de los parámetros del mandato nalcontrol escribiendo las letras exclusivas de los parámetros. Por ejemplo, para obtener ayuda sobre el mandato para guardar archivos, puede escribir nalcontrol he f en lugar de nalcontrol help file.

    Para finalizar la interfaz de línea de mandatos, escriba exit o quit.

    Notas:

    1. Debe utilizar caracteres del idioma inglés en todos los valores de parámetros de mandatos. Las únicas excepciones son los nombres de host (que se utilizan en los mandatos del servidor) y los nombres de archivo (que se utilizan en los mandatos de archivo).

    2. En sistemas Windows, se inicia automáticamente el dsserver del componente Dispatcher. Si sólo utiliza Nortel Alteon Controller y no el componente Dispatcher, puede evitar que ndserver se inicie automáticamente de la forma siguiente:
      1. En Servicios de Windows, pulse con el botón derecho del ratón en IBM Dispatcher.
      2. Seleccione Propiedades.
      3. En el campo Tipo de inicio, seleccione Manual.
      4. Pulse Aceptar y cierre la ventana Servicios.

    XML

    La configuración definida actualmente puede guardarse en un archivo XML. Esto permite cargar la configuración más adelante cuando desee volver a crear rápidamente la configuración.

    Para ejecutar el contenido de un archivo XML (por ejemplo, miscript.xml), utilice los siguientes mandatos:

    Los archivos XML se guardan en el directorio ...ibm/edge/lb/servers/configurations/nal/.

    GUI

    Para ver un ejemplo de la interfaz gráfica de usuario (GUI), consulte la Figura 41.

    Para iniciar la GUI:

    1. Si nalserver todavía no está en ejecución, inícielo escribiendo nalserver como usuario root.
    2. A continuación, realice una de las acciones siguientes:

    Para configurar el componente Nortel Alteon Controller desde la GUI:

    1. Pulse con el botón derecho del ratón en Nortel Alteon Controller en la estructura de árbol.
    2. Conéctese a un host.
    3. Cree uno o más consultores de conmutadores que contengan los servicios que desee y la métrica asociada.
    4. Inicie el consultor.

    La GUI puede utilizarse para llevar a cabo las mismas tareas que realizaría con el mandato nalcontrol. Por ejemplo:

    Para ejecutar un mandato desde la GUI:

    1. Pulse con el botón derecho del ratón en el nodo Host y seleccione Enviar mandato....
    2. En el campo de entrada de mandatos, escriba el mandato que desea ejecutar; por ejemplo, consultant report.
    3. Pulse Enviar.

    El resultado y el historial de los mandatos que se ejecutan en la sesión actual aparecen en el recuadro Resultado.

    Para acceder a la Ayuda, pulse el icono de signo de interrogación situado en la esquina superior derecha de la ventana de Load Balancer.

    Para obtener más información sobre cómo utilizar la GUI, consulte el Apéndice A. GUI: instrucciones generales.


    Configuración de Nortel Alteon Controller

    Para obtener ayuda sobre los mandatos utilizados en este procedimiento, consulte el apartado Referencia de mandatos para Nortel Alteon Controller.

    Antes de configurar la máquina Nortel Alteon Controller:

    Paso 1. Iniciar la función de servidor

    Si nalserver todavía no está en ejecución, escriba nalserver como usuario root para iniciarlo.

    Nota:
    En sistemas Windows, pulse Inicio > Configuración (en Windows 2000) > Panel de control > Herramientas administrativas > Servicios. Pulse con el botón derecho del ratón en IBM Nortel Alteon Controller y seleccione Iniciar.

    Paso 2. Iniciar la interfaz de línea de mandatos

    Escriba nalcontrol para iniciar la interfaz de línea de mandatos.

    Paso 3. Definir un consultor del conmutador Nortel Alteon Web

    Para añadir un consultor de conmutador, escriba:

    consultant add ID_consultor_conmutador address dirección_IP_conmutador
    

    Paso 4. Añadir un servicio al consultor de conmutador

    Para añadir un servicio, escriba:

    service add ID_consultor_conmutador:ID_servicio vsid ID_servidor_virtual vport 
    número_puerto_virtual
    

    Un servicio se identifica por identificador de servidor virtual (VSID) y un número de puerto virtual (VPORT). Los dos están asociados a un servidor virtual configurado anteriormente en el conmutador.

    Paso 5. Configurar métrica

    La métrica es la información utilizada para determinar los pesos de los servidores. A cada métrica se le asigna una proporción para indicar su importancia relativa a otra métrica. Puede configurarse cualquier combinación de métricas: métrica de datos de conexiones, métrica de asesor de aplicaciones y métrica de Metric Server. Las proporciones siempre deben sumar 100.

    Al configurar un servicio, la métrica predeterminada se define como activeconn y connrate. Si desea métricas adicionales o si desea métricas completamente distintas de los resultados, escriba:

    service metrics ID_consultor_conmutador:ID_servicio nombre_métrica 50 
    nombre_métrica2 50
    

    Paso 6. Iniciar el consultor

    Para iniciar el consultor, escriba:

    consultant start ID_consultor_conmutador
    

    Así se inician los recopiladores de métricas y empieza el cálculo del peso.

    Paso 7. Configurar alta disponibilidad (opcional)

    Para configurar la alta disponibilidad, escriba:

    highavailability add address dirección_IP partneraddress dirección_IP port 80 
    role primario
    

    Si desea información detallada sobre cómo utilizar y configurar la alta disponibilidad del controlador, consulte el apartado Características avanzadas de Cisco CSS Controller y Nortel Alteon Controller.

    Paso 8. Iniciar Metric Server (opcional)

    Si se ha definido la métrica del sistema en el paso 5, se debe iniciar Metric Server en las máquinas de servicio. Consulte el apartado Metric Server para obtener información sobre la utilización de Metric Server.

    Paso 9. Renovar la configuración de Nortel Alteon Controller

    Si modifica la configuración del conmutador de Nortel Alteon Web, puede renovar la configuración del controlador. Escriba:

    service refresh
    

    Antes de renovar la configuración, detenga el consultor. Una vez que el mandato de renovación actualiza la configuración, reinicie el consultor.


    Prueba de la configuración

    Compruebe si la configuración funciona:

    1. Establezca el nivel de anotaciones cronológicas del consultor en 4.
    2. Desconecte un servidor del conmutador Nortel Alteon Web durante un minuto o bien detenga el servidor de aplicaciones durante un minuto.
    3. Vuelva a conectar el servidor o reinicie el servidor de aplicaciones.
    4. Establezca el nivel de anotaciones cronológicas del consultor en el nivel que desee (1).
    5. Examine el archivo consultant.log que se encuentra en los siguientes directorios y busque las palabras setServerWeights setting service. Esto significa que se ha realizado un intento de enviar pesos al conmutador.
    6. Visualice los pesos de servidores en el conmutador y verifique que estos pesos coincidan con los pesos que se muestran en el informe del controlador.

    Funciones y características avanzadas de Load Balancer

    Esta parte proporciona información sobre funciones y características de configuración avanzada que están disponibles para Load Balancer. Contiene los capítulos siguientes:


    Funciones del gestor, asesores y Metric Server para Dispatcher, CBR y Site Selector

    En este capítulo se explica cómo configurar los parámetros de equilibrio de carga y cómo configurar las funciones del gestor, de los asesores y de Metric Server de Load Balancer.

    Nota:
    Al leer este capítulo, si no está utilizando el componente Dispatcher, sustituya "dscontrol" por lo siguiente:

    Tabla 15. Tareas de configuración avanzada para Load Balancer

    Tarea Descripción Información relacionada
    Si se desea, se pueden cambiar los valores del equilibrio de carga

    Puede cambiar los siguientes valores de equilibrio de carga:

    • Proporción de la importancia otorgada a la información de estado

      La proporción predeterminada es 50-50-0-0. Si emplea el valor predeterminado, no se utilizará la información de asesores, Metric Server y WLM.

    • Pesos
    • Pesos fijados por el gestor
    • Intervalos del gestor
    • Umbral de sensibilidad
    • Índice de suavizado

    Optimización del equilibrio de carga que proporciona Load Balancer
    Utilizar scripts para generar una alerta o anotar anomalía de servidor cuando el gestor marca los servidores como inactivos o activos Load Balancer proporciona salidas de usuario que desencadenan scripts que puede personalizar cuando el gestor marca los servidores como inactivos o activos Utilización de scripts para generar una alerta o anotar anomalías en el servidor
    Utilizar asesores Describe y lista los asesores, que informan sobre estados concretos de los servidores Asesores
    Utilizar la opción de petición y respuesta (URL) del asesor HTTP o HTTPS Define una serie de URL HTTP de cliente exclusiva, específica de un servicio que desea examinar en la máquina Configuración del asesor HTTP o HTTPS utilizando la opción de petición y respuesta (URL)
    Utilizar el asesor automático Proporciona estado de carga del servidor de programa de fondo en una configuración WAN de dos niveles de Load Balancer Utilización del asesor automático en una configuración WAN de dos niveles
    Crear asesores personalizados Describe cómo escribir sus propios asesores personalizados Crear asesores personalizados (personalizables)
    Utilizar agente de Metric Server Metric Server proporciona información de carga del sistema a Load Balancer Metric Server
    Utilizar el asesor del gestor de carga de trabajo (WLM) El asesor WLM proporciona información de carga del sistema a Load Balancer Asesor del gestor de carga de trabajo

    Optimización del equilibrio de carga que proporciona Load Balancer

    La función de gestor de Load Balancer lleva a cabo el equilibrio de carga basándose en los siguientes valores:

    Si lo desea, modifique estos valores para optimizar el equilibrio de carga para la red.

    Proporción de la importancia otorgada a la información de estado

    El gestor puede tener en cuenta algunos de los siguientes factores externos o todos cuando se sopesan las decisiones:

    Junto con el peso actual para cada servidor y alguna otra información necesaria para sus cálculos, el gestor obtiene los dos primeros valores (conexiones activas y nuevas) del ejecutor. Estos valores se basan en la información generada y almacenada internamente en el ejecutor.

    Nota:
    En el caso de Site Selector, el gestor obtiene los dos primeros valores (CPU y memoria) para Metric Server.

    Puede cambiar la proporción de importancia relativa de los cuatros valores clúster por clúster (o nombre de sitio). Piense en las proporciones como si fueran porcentajes; la suma de las proporciones relativas debe ser 100%. La proporción predeterminada es 50/50/0/0, que ignora la información del asesor y del sistema. En el entorno, es posible que sea necesario probar distintas proporciones hasta encontrar la combinación que ofrezca el mejor rendimiento.

    Nota:
    Al añadir un asesor (que no sea WLM), si la proporción del puerto es cero, el gestor aumenta este valor hasta 1. Puesto que la suma de las proporciones relativas debe ser 100, se restará 1 al valor más alto.

    Al añadir el asesor WLM, si la proporción de métrica del sistema es cero, el gestor aumenta este valor hasta 1. Puesto que la suma de las proporciones relativas debe ser 100, se restará 1 al valor más alto.

    El número de conexiones activas depende del número de clientes así como del periodo de tiempo necesario para utilizar los servicios proporcionados por las máquinas de servidor con equilibrio de carga. Si las conexiones de cliente son rápidas (como páginas Web pequeñas servidas mediante HTTP GET), el número de conexiones activas será bastante bajo. Si la conexiones de cliente son más lentas (como una consulta a una base de datos), el número de conexiones activas será más alto.

    Debe evitar establecer demasiado bajos los valores de las proporciones de conexiones activas y nuevas. Debe inhabilitar el equilibrio de carga y el suavizado, a menos que estos dos valores estén establecidos como mínimo en 20 cada uno.

    Para definir la proporción de los valores de importancia, emita el mandato dscontrol cluster set clúster proportions. Consulte el apartado dscontrol cluster -- configurar clústeres para obtener más información.

    Pesos

    Los pesos los establece la función de gestor basándose en contadores internos del ejecutor, información procedente de los asesores e información procedente de un programa de supervisión del sistema, como Metric Server. Si desea establecer pesos manualmente mientras ejecuta el gestor, especifique la opción fixedweight en el mandato dscontrol server. Para obtener una descripción de la opción fixedweight, consulte el apartado Pesos fijos del gestor.

    Los pesos se aplican a todos los servidores de un puerto. Para cualquier puerto concreto, las peticiones se distribuyen entre los servidores en función del peso relativo que dichos servidores tienen entre sí. Por ejemplo, si el peso de un servidor se establece en 10 y el de otro en 5, el servidor establecido en 10 debería recibir el doble de peticiones que el servidor establecido en 5.

    Para especificar el límite máximo de peso que un servidor puede tener, utilice el mandato dscontrol port set puerto weightbound peso. Este mandato afecta a la diferencia permitida entre la cantidad de peticiones que cada servidor obtendrá. Si establece el valor máximo de ponderación en 1, todos los servidores podrán tener el peso 1, 0 si están desactivados temporalmente o -1 si se han marcado como inactivos. Cuando se incrementa este número, aumentará la diferencia entre el peso que se puede otorgar a los servidores. Si establece el valor máximo de ponderación en 2, un servidor podría obtener el doble de peticiones que otro. Si establece el valor máximo de ponderación en 10, un servidor podría obtener diez veces más peticiones que otro. El valor máximo predeterminado de ponderación es 20.

    Si un asesor encuentra que un servidor ha concluido, lo comunica al gestor y éste establecerá el peso para el servidor en cero. Como resultado, el ejecutor no enviará ninguna conexión adicional a dicho servidor siempre que dicho peso permanezca en cero. En el caso de que hubiera alguna conexión activa con dicho servidor antes de cambiar el peso, se dejará que finalice normalmente.

    Si todos los servidores están inactivos, el gestor establece los pesos a la mitad de la ponderación.

    Pesos fijos del gestor

    Sin el gestor, los asesores no se pueden ejecutar y no pueden detectar si un servidor está inactivo. Si opta por ejecutar los asesores, pero no desea que el gestor actualice el peso establecido para un servidor concreto, utilice la opción fixedweight en el mandato dscontrol server. Por ejemplo:

    dscontrol server set clúster:puerto:servidor fixedweight yes
    

    Una vez que fixedweight se establece en yes, utilice el mandato dscontrol server set weight para establecer el peso en el valor que desee. El valor de peso del servidor permanece fijo mientras el gestor se está ejecutando hasta que se emite otro mandato dscontrol server con la opción fixedweight establecida en no. Para obtener más información, consulte el apartado dscontrol server -- configurar servidores.

    Envío de una restauración TCP a un servidor inactivo (sólo componente Dispatcher)

    Si se activa una restauración TCP, Dispatcher enviará una restauración TCP al cliente cuando éste tenga una conexión con un servidor con un peso 0. El peso de un servidor puede ser 0 si se ha configurado 0 o si un asesor lo marca como inactivo. Una restauración TCP hará que la conexión se cierre inmediatamente. Esta característica es útil para conexiones de larga duración donde acelera la capacidad el cliente para renegociar una conexión anómala. Para activar la restauración TCP, utilice el mandato dscontrol port add|set puerto reset yes. El valor predeterminado para reset es no.

    Nota:
    La restauración TCP se aplica a todos los métodos de reenvío de Dispatcher. No obstante, para utilizar la característica de restauración TCP, la opción clientgateway en el mandato dscontrol executor debe se establecer en una dirección de direccionador. .

    Una característica que será de gran utilidad configurar, junto con la restauración TCP, es advisor retry. Con esta característica, un asesor tiene la capacidad de volver a intentar una conexión antes de marcar un servidor como inactivo. Esto ayudará a impedir que el asesor marque prematuramente el servidor como inactivo, lo que podría provocar problemas en la restauración de la conexión. Es decir, sólo porque el asesor haya fallado en el primer intento, no significa necesariamente que las conexiones existentes también están sufriendo anomalías. Consulte el apartado Reintento del asesor para obtener más información.

    Intervalos del gestor

    Para optimizar el rendimiento general, se restringe la frecuencia con la que el gestor puede interactuar con el ejecutor. Puede realizar cambios en este intervalo emitiendo los mandatos dscontrol manager interval y dscontrol manager refresh.

    El intervalo del gestor especifica la frecuencia con la que el gestor actualizará los pesos del servidor que el ejecutor utiliza en el direccionamiento de conexiones. Si el intervalo del gestor es demasiado bajo, puede suponer un bajo rendimiento como resultado de que el gestor interrumpe constantemente al ejecutor. Si el valor de intervalo del gestor es demasiado alto, puede indicar que el direccionamiento de peticiones del ejecutor no se basará en información actualizada y precisa.

    Por ejemplo, para establecer el intervalo en 1 segundo, escriba el siguiente mandato:

     dscontrol manager interval 1
    

    El ciclo de renovación del gestor especifica con qué frecuencia el gestor solicitará información de estado al ejecutor. El ciclo de renovación se basa en el intervalo de tiempo.

    Por ejemplo, para establecer el ciclo de renovación del gestor en 3, escriba el siguiente mandato:

      dscontrol manager refresh 3
    

    Esto hará que el gestor espere 3 intervalos antes de solicitar el estado al ejecutor.

    Umbral de sensibilidad

    Hay otros métodos disponibles para optimizar el equilibrio de carga para los servidores. Para trabajar a máxima velocidad, sólo se actualizan los pesos de los servidores si dichos pesos han cambiado de una manera significativa. Si se actualizan constantemente los pesos cuando no se produce ningún cambio en el estado del servidor o dicho cambio es muy pequeño, supondrá una carga adicional innecesaria. Cuando el cambio en el porcentaje del peso para el peso total de todos los servidores de un puerto es mayor que el umbral de sensibilidad, el gestor actualiza los pesos utilizados por el ejecutor para distribuir las conexiones. Por ejemplo, suponga que el total de los cambios de pesos pasa de 100 a 105. El cambio es del 5%. Con el umbral de sensibilidad predeterminada 5, el gestor no actualizará los pesos utilizados por el ejecutor, porque el cambio del porcentaje no está por encima del umbral. Sin embargo, si el peso total pasa de 100 a 106, el gestor actualizará los pesos. Para establecer el umbral de sensibilidad el gestor en un valor distinto del valor predeterminado (por ejemplo, 6), especifique el siguiente mandato:

      dscontrol manager sensitivity 6
    

    En la mayoría de los casos, no es necesario cambiar este valor.

    Índice de suavizado

    El gestor calcula los pesos de servidores de forma dinámica. En consecuencia, un peso actualizado puede ser muy distinto de uno anterior. En la mayoría de casos, esto no será un problema. Sin embargo, en algunas ocasiones puede causar un efecto de fluctuación en la forma en que se realiza el equilibrio de carga en las peticiones. Por ejemplo, un servidor puede acabar recibiendo la mayoría de las peticiones debido a un peso alto. El gestor verá que el servidor tiene un elevado número de conexiones activas y que el servidor responde muy lentamente. Entonces pasará el peso a los servidores libres, lo que producirá el mismo efecto y provocará una utilización de recursos ineficaz.

    Para aliviar este problema, el gestor utiliza un índice de suavizado. El índice de suavizado limita la cantidad que el peso de un servidor puede cambiar, mitigando el cambio en la distribución de peticiones. Un índice de suavizado más alto hará que los pesos de servidores cambien menos radicalmente. Un índice más bajo hará que los pesos de servidores cambien de forma más radical. El valor predeterminado para el índice de suavizado es 1,5. Con un índice de 1,5, los pesos de servidores pueden ser bastante dinámicos. Si se especifica un índice de 4 o 5, los pesos serán más estables. Por ejemplo, para establecer el índice de suavizado en 4, escriba el siguiente mandato:

      dscontrol manager smoothing 4
    

    En la mayoría de los casos, no es necesario cambiar este valor.

    Utilización de scripts para generar una alerta o anotar anomalías en el servidor

    Load Balancer proporciona salidas de usuario que desencadenan scripts que se pueden personalizar. Puede crear los scripts para realizar acciones automatizadas, como avisar a un administrador cuando el gestor ha marcado que los servidores están inactivos o simplemente anotar el suceso de la anomalía. Los scripts de ejemplo, que puede personalizar, están en el directorio de instalación ...ibm/edge/lb/servers/samples. Para ejecutar los archivos, debe ponerlos en el directorio ...ibm/edge/lb/servers/bin y eliminar la extensión de archivo "sample". Se proporcionan los siguientes scripts de ejemplo:

    Si todos los servidores de un clúster se marcan como inactivos (por el usuario o por los asesores), se inicia managerAlert (si está configurado) y Load Balancer intenta direccionar el tráfico a los servidores utilizando una técnica de turno rotativo. El script serverDown no se inicia cuando se ha detectado que el último servidor del clúster está fuera de línea.

    Load Balancer se ha diseñado de modo que intente continuar direccionando el tráfico en caso de que un servidor vuelva a estar en línea y responda a la petición. Si en lugar de esto, Load Balancer dejara de direccionar todo el tráfico, el cliente no recibiría ninguna respuesta.

    Cuando Load Balancer detecta que el primer servidor de un clúster vuelve a estar en línea, se inicia el script managerClear (si está configurado), aunque el script serverUp (si está configurado) no se ejecutará hasta que no vuelva a estar en línea un servidor adicional.

    Factores que deben tenerse en cuenta cuando se utilizan los scripts serverUp y serverDown:


    Asesores

    Los asesores son agentes incluidos en Load Balancer. Su finalidad es evaluar el estado y la carga de las máquinas servidor. Esto lo llevan a cabo con un intercambio parecido a los clientes proactivos con los servidores. Los asesores se consideran como clientes ligeros de los servidores de aplicaciones.

    El producto proporciona varios asesores específicos de protocolo para la mayoría de los protocolos más utilizados. No obstante, no tiene sentido utilizar todos los asesores proporcionados con cada componente de Load Balancer. (Por ejemplo, no utilice el asesor Telnet con el componente CBR). Load Balancer también da soporte al concepto de un asesor personalizado que permite a los usuarios escribir sus propios asesores.

    Límites a la utilización de aplicaciones de servidor específicas del enlace: Para poder utilizar asesores en servidores específicos del enlace, inicie dos instancias del servidor: una instancia para enlazar el clúster:puerto y la otra instancia para enlazar en servidor:puerto. Para determinar si el servidor es específico del enlace, emita el mandato netstat -an y busque server:port. Si el servidor no es específico del enlace, el resultado del mandato será 0.0.0.0:80. Si el servidor es específico del enlace, verá una dirección parecida a 192.168.15.103:80.

    En sistemas HP-UX y Solaris existe una limitación en la utilización de aplicaciones de servidor específicas del enlace: Si utiliza el mandato arp publish en lugar del mandato ifconfig alias, Load Balancer permitirá el uso de asesores cuando los servidores que realizan el equilibrio de carga con aplicaciones de servidores específicos del enlace (incluidos otros componentes de Load Balancer, como CBR o Site Selector) cuando están enlazados a la dirección IP del clúster. Sin embargo, cuando se utilicen asesores para la aplicación de servidor específico del enlace, Load Balancer no puede compartir la misma ubicación en la misma máquina con la aplicación de servidor.

    Nota:
    Cuando se ejecuta Load Balancer en un sistema con varias tarjetas de adaptador de red y desea que el tráfico del asesor circule por un adaptador concreto, puede forzar la dirección IP de origen de los paquetes de forma que sea una dirección concreta. Para forzar que la dirección de origen de paquetes del asesor sea una dirección concreta, añada la siguiente línea java...SRV_XXXConfigServer... en el archivo script (dsserver, cbrserver o ssserver) de inicio de Load Balancer adecuado.
    -DLB_ADV_SRC_ADDR=dirección_IP
    

    Cómo funcionan los asesores

    Los asesores abren periódicamente una conexión TCP con cada servidor y envían un mensaje de petición al servidor. El contenido del mensaje es específico para el protocolo que se ejecuta en el servidor. Por ejemplo, el asesor HTTP envía una petición HTTP "HEAD" al servidor.

    Los asesores están a la escucha de la respuesta del servidor. Después de obtener la respuesta, el asesor realiza una evaluación del servidor. Para calcular este valor de "carga", la mayoría de los asesores calculan el tiempo que el servidor tarda en responder y luego utilizan este valor (en milisegundos) como carga.

    A continuación, los asesores notifican el valor de la carga a la función de gestor, donde aparece en el informe del gestor en la columna "Puerto". Luego, el gestor calcula los valores de peso total de todas las fuentes, según sus proporciones y establece estos valores en la función del ejecutor. El ejecutor utilizará estos valores para realizar el equilibrio de carga de nuevas conexiones de cliente entrantes.

    Si el asesor determina que un servidor está activo y funciona, notificará al gestor un número de carga positivo distinto de cero. Si el asesor determina que un servidor no está activo, devolverá un valor de carga especial de uno negativo (-1). El gestor y el ejecutor no reenviará más conexiones a dicho servidor hasta que el servidor no vuelva a estar en funcionamiento.

    Nota:
    Antes de enviar el mensaje de petición inicial, el asesor emitirá el mandato ping al servidor. Esto proporcionará rápidamente el estado para determinar si la máquina está en línea. Una vez que el servidor responda al mandato ping, no se enviarán más mandatos ping. Para inhabilitar el envío de mandatos ping, añada -DLB_ADV_NB_PING al archivo script de inicio de Load Balancer.

    Inicio y detención de un asesor

    Si lo desea, puede iniciar un asesor para un puerto concreto de todos los clústeres (asesor de grupo). O bien, puede optar por ejecutar distintos asesores en el mismo puerto, pero en distintos clústeres (asesor específico del clúster/sitio). Por ejemplo, si ha definido Load Balancer con tres clústeres (clústerA, clústerB, clústerC), cada uno con el puerto 80, puede hacer lo siguiente:

    Si utiliza el ejemplo de configuración anterior para el asesor de grupo, puede decidir detener el asesor personalizado ADV_personalizado para el puerto 80 en sólo uno de los clústeres o en ambos (clusterB y clústerC).

    Intervalos de asesor

    Nota:
    Los valores predeterminados del asesor deben funcionar de forma eficaz para la gran mayoría de casos posibles. Tenga cuidado al especificar valores distintos a los valores predeterminados.

    El intervalo del asesor establece la frecuencia con la que un asesor solicita el estado de los servidores en el puerto que está supervisando y, a continuación, notifica los resultados al gestor. Si el intervalo del asesor es demasiado bajo, puede suponer un bajo rendimiento como resultado de que el asesor interrumpe constantemente a los servidores. Si el valor de intervalo del asesor es demasiado alto, puede indicar que las decisiones del gestor sobre la ponderación no se basan en información actualizada y precisa.

    Por ejemplo, para establecer el intervalo en 3 segundos para el asesor HTTP para el puerto 80, escriba el siguiente mandato:

      dscontrol advisor interval http 80 3
    

    No tiene sentido especificar un intervalo de asesor más pequeño que el intervalo del gestor. El valor predeterminado del intervalo del asesor son siete segundos.

    Tiempo de espera de informe del asesor

    Para asegurarse de que el gestor no utiliza información desfasada en sus decisiones de equilibrio de carga, el gestor no utilizará información procedente del asesor cuya indicación de la hora sea anterior a la hora establecida en el tiempo de espera de informe del asesor. El tiempo de espera de informe del asesor debe ser mayor que el intervalo de sondeo del asesor. Si el tiempo de espera es más pequeño, el asesor ignorará informes que en buena lógica deberían utilizarse. De manera predeterminada, los informes del asesor no exceden el tiempo de espera: el valor predeterminado es unlimited.

    Por ejemplo, para establecer el tiempo de espera de informe del asesor en 30 segundos para el asesor HTTP para el puerto 80, escriba el siguiente mandato:

    dscontrol advisor timeout http 80 30 
    

    Si desea más información sobre cómo establecer el tiempo de espera de informe del asesor, consulte el apartado dscontrol advisor -- controlar el asesor.

    Tiempo de espera de conexión y recepción del asesor para los servidores

    En Load Balancer, puede establecer los valores de tiempo de espera del asesor en el que detecta que un puerto particular en el servidor (un servicio) ha sufrido una anomalía. Los valores de tiempo de espera del servidor anómalo (connecttimeout y receivetimeout) determinan cuánto tiempo espera un asesor antes de informar que se ha producido una anomalía en una conexión o recepción.

    Para obtener la detección de servidor anómalo más rápida, establezca los tiempos de espera de conexión y recepción en el valor más pequeño (un segundo) y establezca el tiempo de intervalo del gestor y asesor en el valor más pequeño (un segundo).

    Nota:
    Si el volumen de tráfico de la red oscila entre moderado a alto y la respuesta del servidor aumenta, no establezca los valores timeoutconnect y timeoutreceive demasiado bajos o el asesor podría marcar prematuramente un servidor ocupado como anómalo.

    Por ejemplo, para establecer connecttimeout y receivetimeout en 9 segundos para el asesor HTTP en el puerto 80, escriba el siguiente mandato:

    dscontrol advisor connecttimeout http 80 9
    dscontrol advisor receivetimeout http 80 9 
    

    El valor predeterminado para el tiempo de espera de conexión y recepción es 3 veces el valor especificado para el tiempo de intervalo del asesor.

    Reintento del asesor

    Los asesores tienen la capacidad de reintentar una conexión antes de marcar un servidor como inactivo. El asesor no marcará un servidor como inactivo hasta que la consulta del servidor haya fallado el número de reintentos más 1. El valor de retry no debe ser mayor que 3. El siguiente mandato establece un valor de reintento de 2 para el asesor LDAP en el puerto 389:

    dscontrol advisor retry ldap 389 2
    

    Lista de asesores

    Configuración del asesor HTTP o HTTPS utilizando la opción de petición y respuesta (URL)

    La opción URL para el asesor HTTP o HTTPS está disponible para los componentes Dispatcher y CBR.

    Después de iniciar un asesor HTTP o HTTPS, puede definir una serie URL HTTP de cliente exclusiva, específica para el servicio que desea examinar en el servidor. Esto permite que el asesor evalúe el estado de servicios individuales dentro de un servidor. Para hacerlo, defina los servidores lógicos con nombres de servidor exclusivos que tengan la misma dirección IP física. Consulte el apartado Creación de particiones del servidor: servidores lógicos configurados con un servidor físico (dirección IP) para obtener más información.

    Para cada servidor lógico definido bajo el puerto HTTP, puede especificar una serie URL HTTP de cliente exclusiva, específica para el servicio que desea examinar en el servidor. El asesor HTTP o HTTPS utiliza la serie advisorrequest para examinar el estado de los servidores. El valor predeterminado es HEAD / HTTP/1.0. La serie advisorresponse es la respuesta en la que el asesor busca la respuesta HTTP. El asesor utiliza la serie advisorresponse y la compara con la respuesta real que se recibe del servidor. El valor predeterminado es null.

    Importante: si la serie URL de HTTP incluye un espacio en blanco:

    Cuando cree la petición que el asesor HTTP o HTTPS envía a servidores de programa de fondo para comprobar si están funcionando, escriba el comienzo de la petición HTTP y Load Balancer completará el final de la petición con lo siguiente:

    \r\nAccept:
    */*\r\nUser-Agent:IBM_Network_Dispatcher_HTTP_Advisor\r\n\r\n 
    

    Si desea añadir otros campos de cabecera HTTP antes de que Load Balancer añada esta serie al final de la petición, también puede hacerlo incluyendo su propia serie \r\n en la petición. A continuación se muestra un ejemplo de lo que podría escribir para añadir el campo de cabecera de host HTTP a la petición:

    GET /pub/WWW/TheProject.html HTTP/1.0 \r\nHost: www.w3.org
    
    Nota:
    Después de iniciar un asesor HTTP o HTTPS para un número de puerto HTTP especificado, el valor de petición y respuesta del asesor se habilita para servidores bajo dicho puerto HTTP.

    Consulte el apartado dscontrol server -- configurar servidores para obtener más información.

    Utilización del asesor automático en una configuración WAN de dos niveles

    El asesor automático está disponible en el componente Dispatcher.

    Para Load Balancer, en una configuración de WAN (red de área amplia) de dos niveles, Dispatcher proporciona un asesor automático que recopila información de estado de carga en servidores de programa de fondo.

    Figura 34. Ejemplo de una configuración WAN de dos niveles que utiliza el asesor automático

    Configuración WAN de dos niveles con asesor automático

    En este ejemplo, el asesor automático junto con Metric Server reside en las dos máquinas Dispatcher sobre las que Load Balancer realiza el equilibrio de carga de nivel superior. El asesor automático mide automáticamente el índice de conexiones por segundo en los servidores de programa de fondo de Dispatcher en el nivel del ejecutor.

    El asesor automático escribe los resultados en el archivo dsloadstat. Load Balancer también proporciona una métrica externa denominada dsload. El agente de Metric Server de cada máquina Dispatcher ejecuta su configuración que llama al dsload de métrica externa. El script dsload extrae una serie del archivo dsloadstat y la devuelve al agente de Metric Server. Posteriormente, cada uno de los agentes de Metric Server (de cada uno de los sistemas Dispatcher) devuelve a Load Balancer el valor del estado de la carga de nivel superior para que la utilice para determinar a qué sistema Dispatcher reenviar las peticiones de cliente.

    El dsload ejecutable reside en el directorio ...ibm/edge/lb/ms/script de Load Balancer.

    Consulte el apartado Configurar soporte de Dispatcher de área amplia para más información sobre la utilización de Dispatcher en configuraciones WAN. Consulte el apartado Metric Server para obtener más información sobre Metric Server.


    Crear asesores personalizados (personalizables)

    El asesor personalizado (personalizable) es un trozo pequeño de código Java que se proporciona como archivo de clases y es llamado por el código base. El código base proporciona todos los servicios administrativos, como iniciar y detener una instancia del asesor personalizado, proporcionar estado e informes y anotar la información de historial en un archivo de anotaciones cronológicas. También notifica los resultados al componente del gestor. De forma periódica, el código base lleva a cabo un ciclo de asesor, donde evalúa de forma individual todos los servidores en su configuración. Empieza abriendo una conexión con una máquina servidor. Si se abre socket, el código base llamará al método "getLoad" (función) en el asesor personalizado. A continuación, el asesor personalizado llevará a cabo los pasos necesarios para evaluar el estado del servidor. En general, enviará al servidor un mensaje definido por el usuario y luego esperará una respuesta. (Se proporciona acceso al socket abierto para el asesor personalizado). A continuación, el código base cierra el socket con el servidor y notifica la información de carga al gestor.

    El código base y el asesor personalizado puede funcionar en modalidad normal o de sustitución. La selección de la modalidad de operación se especifica en el archivo de asesor personalizado como parámetro en el método del constructor.

    En modalidad normal, el asesor personalizado intercambia datos con el servidor y el código del asesor base calcula la duración del intercambio y calcula el valor de carga. A continuación, el código base informa de este valor de carga al gestor. El asesor personalizado sólo necesita devolver un cero (cuando es satisfactorio) o un valor negativo (cuando es erróneo). Para especificar la modalidad normal, el distintivo de sustitución en el constructor se establece en false.

    En modalidad de sustitución, el código base no lleva a cabo las mediciones de tiempo. El código del asesor personalizado realiza todas las operaciones que desee para sus requisitos exclusivos y, a continuación, devuelve un número de carga real. El código base aceptará el número y lo notificará al gestor. Para obtener los mejores resultados, normalice el número de carga entre 10 y 1000, en donde 10 representa un servidor rápido y 1000 representa un servidor lento. Para especificar la modalidad de sustitución, el distintivo de sustitución en el constructor se establece en true.

    Con esta característica, puede escribir sus propios asesores de forma que proporcionen la información exacta que necesite sobre los servidores. Con el producto Load Balancer se proporciona un asesor personalizado de ejemplo, ADV_sample.java. Después de instalar Load Balancer, puede encontrar el código de ejemplo en el directorio de instalación
    ...<directorio_instalación>/servers/samples/CustomAdvisors
    .

    El valor predeterminado del directorio de instalación es:

    Nota:
    Si añade un asesor personalizado a Dispatcher o a cualquier otro componente de Load Balancer pertinente, debe detener y, a continuación, reiniciar dsserver (o el servicio en sistemas Windows) para que el proceso Java pueda leer los nuevos archivos de clase de asesor personalizado. Los archivos de clase de asesor personalizado sólo se cargan durante el arranque. No es necesario detener el ejecutor. El ejecutor sigue en ejecución incluso cuando se ha detenido dsserver o el servicio.

    Si el asesor personalizado hace referencia a clases Java adicionales, se debe actualizar la classpath en el archivo script de inicio de Load Balancer (dsserver, cbrserver, ssserver) de forma que incluya la ubicación.

    Asesor WAS

    Los archivos de asesor personalizado de ejemplo para el asesor WebSphere Application Server (WAS) se proporcionan en el directorio de instalación de Load Balancer.

    Los archivos de ejemplo del asesor de WebSphere Application Server se encuentran en el mismo directorio de ejemplo que el archivo ADV_sample.java.

    Convenio de denominación

    El nombre de archivo de asesor personalizado debe tener el formato "ADV_miasesor.java". Debe empezar con el prefijo "ADV_" en mayúsculas. Todos los caracteres subsiguientes deben indicarse en minúsculas.

    Según los convenios Java, el nombre de la clase definida dentro del archivo debe coincidir con el nombre del archivo. Si copia el código de ejemplo, asegúrese de cambiar todas las instancias de "ADV_sample" dentro del archivo por el número nombre de clase.

    Compilación

    Los asesores personalizados se escriben en lenguaje Java. Utilice el compilador Java que se instala con Load Balancer. Durante la compilación aparecen referenciados los siguientes archivos:

    La classpath debe apuntar al archivo de asesor personalizado y el archivo de clases base durante la compilación.

    En sistemas Windows, un mandato de compilación de ejemplo es:

    dir_instalación/java/bin/javac -classpath 
        dir_instalación\lb\servers\lib\ibmlb.jar ADV_fred.java
     
    

    donde:

    La salida de la compilación está en un archivo de clases, por ejemplo:

    ADV_fred.class
    

    Antes de iniciar el asesor, copie el archivo de clases en el directorio de instalación ...ibm/edge/lb/servers/lib/CustomAdvisors.

    Nota:
    Si lo desea, los asesores personalizados pueden compilarse en un sistema operativo y ejecutarse en otro. Por ejemplo, puede compilar el asesor en sistemas Windows, copiar el archivo de clase (en binario) en una máquina AIX y ejecutar aquí el asesor personalizado.

    En sistemas AIX, HP-UX, Linux y Solaris, la sintaxis es parecida.

    Ejecución

    Para ejecutar el asesor personalizado, primero debe copiar el archivo de clases en el directorio de instalación adecuado:

    ...ibm/edge/lb/servers/lib/CustomAdvisors/ADV_fred.class
    

    Configure el componente, inicie la función de gestor y emita el mandato para iniciar el asesor personalizado:

    dscontrol advisor start fred 123
     
    

    donde:

    Si el asesor personalizado hace referencia a clases Java adicionales, se debe actualizar la classpath en el archivo script de inicio de Load Balancer (dsserver, cbrserver, ssserver) de forma que incluya la ubicación.

    Rutinas necesarias

    Como todos los asesores, un asesor personalizado amplía la función del asesor base, denominada ADV_Base. Se trata de la base del asesor que en realidad efectúa la mayoría de las funciones del asesor, como informar de las cargas al gestor para que se utilicen en el algoritmo de peso del gestor. La base del asesor también realiza operaciones de conexión y cierre de sockets, y proporciona métodos de envío y recepción para que el asesor los utilice. El asesor sólo se utiliza para enviar datos y recibir datos en el puerto del servidor que se está asesorando. Para calcular la carga, se calcula la duración de los métodos TCP incluidos en la base del asesor. Un distintivo incluido en el constructor en ADV_base escribe encima de la carga existente la nueva carga devuelta desde el asesor, si se desea.

    Nota:
    La base del asesor proporciona la carga al algoritmo de peso a intervalos especificados en función de un valor fijado en el constructor. Si el asesor real no se ha completado y no puede devolver una carga válida, la base del asesor utiliza la carga anterior.

    A continuación se indican los métodos de clase base:

    Orden de búsqueda

    Load Balancer primero busca en la lista de los asesores nativos que proporciona. Si no encuentra un determinado asesor aquí, Load Balancer lo buscará en la lista de asesores personalizados del cliente.

    Denominación y vía de acceso

    Asesor de ejemplo

    La lista de programas de un asesor de ejemplo se incluye en Asesor de ejemplo. Después de la instalación, este asesor de ejemplo puede encontrarse en el directorio ...ibm/edge/lb/servers/samples/CustomAdvisors .


    Metric Server

    Esta característica está disponible para todos los componentes de Load Balancer.

    Metric Server proporciona información de carga de servidor para Load Balancer en la forma de métricas específicas del sistema que notifica el estado de los servidores. El gestor de Load Balancer examina el agente de Metric Server que reside en cada uno de los servidores y asigna pesos al proceso de equilibrio de carga utilizando la métrica recopilada desde los agentes. Los resultados también aparecen en el informe del gestor.

    Nota:
    Cuando se recopilan y normalizan dos o más métricas para cada servidor en un solo valor de carga del sistema, pueden producirse errores de redondeo.

    Para obtener información sobre el funcionamiento de Metric Server (inicio y detención) y la utilización de los archivos de anotaciones de Metric Server, consulte el apartado Utilización del componente Metric Server.

    Para obtener un ejemplo de configuración, consulte la Figura 5.

    Restricción para WLM

    Al igual que el asesor WLM, Metric Server informa sobre los sistemas de servidor como un conjunto, en lugar de hacerlo en daemons de servidor individuales específicos del protocolo. Tanto WLM como Metric Server colocan sus resultados en la columna de sistema del informe del gestor. Como consecuencia, no se permite la ejecución simultánea del asesor WLM y de Metric Server

    Requisitos previos

    El agente de Metric Server debe estar instalado y en ejecución en todos los servidores en los que se está realizando el equilibrio de carga.

    Cómo utilizar Metric Server

    A continuación se muestran los pasos para configurar Metric Server para Dispatcher. Para configurar Metric Server para los demás componentes de Load Balancer puede utilizar un procedimiento parecido.

    Para que Metric Server se ejecute en una dirección distinta del host local, es necesario editar el archivo metricserver en la máquina servidor con equilibrio de carga. Después de la aparición de "java" en el archivo metricserver, inserte lo siguiente:

    -Djava.rmi.server.hostname=OTRA_DIRECCIÓN
    

    Además, antes de las sentencias "if" en el archivo metricserver, añada esta línea: hostname OTRA_DIRECCIÓN.

    En la plataforma Windows: también es necesario crear un alias de OTRA_DIRECCIÓN en la pila de Microsoft de la máquina de Metric Server. Por ejemplo:

    call netsh interface ip add address "Conexión de área local" 
      addr=9.37.51.28 mask=255.255.240.0
    

    Al recopilar métricas por distintos dominios, debe establecer de forma explícita java.rmi.server.hostname en el script del servidor (dsserver, cbrserver, etc) con el nombre de dominio completo (FQDN) de la máquina que solicita la métrica. Esto es necesario porque, en función de la configuración y del sistema operativo que utilice, es posible que InetAddress.getLocalHost.getHostName() no devuelva el nombre de dominio completo (FQDN).


    Asesor del gestor de carga de trabajo

    WLM es el código que se ejecuta en hosts MVS. Puede consultarse para saber la carga de la máquina MVS.

    Cuando se ha configurado la gestión de carga de trabajo de MVS en el sistema OS/390, Dispatcher puede aceptar información de capacidad de WLM y utilizarla en el proceso de carga del sistema. Con el asesor WLM, Dispatcher abre de forma periódica las conexiones a través del puerto de WLM en cada servidor de la tabla de hosts de Dispatcher y aceptar los enteros de capacidad devueltos. Puesto que estos enteros representan la cantidad de capacidad que todavía está disponible y Dispatcher espera valores que representan las cargas en cada máquina, el asesor invierte los enteros de capacidad y se sistematizan en valores de carga (es decir, un entero de gran capacidad y un valor de carga pequeño representan un servidor eficaz. Las cargas obtenidas se colocan en la columna Sistema del informe del gestor.

    Hay varias diferencias importantes entre el asesor WLM y los demás asesores de Dispatcher.

    1. Otros asesores abren conexiones para los servidores utilizando el mismo puerto en el que circula el tráfico de cliente normal. El asesor WLM abre conexiones para los servidores utilizando un puerto distinto del que utiliza el tráfico normal. El agente de WLM en cada máquina servidor debe configurarse de modo que escuche en el mismo puerto en el que se inicia el asesor WLM de Dispatcher. El puerto predeterminado de WLM es 10007.
    2. Otros asesores sólo evalúan a los servidores definidos en la configuración clúster:puerto:servidor de Dispatcher para la que el puerto del servidor coincide con el puerto del asesor. El asesor WLM informa sobre todos los servidores de la configuración de Dispatcher (independientemente del clúster:puerto). Por lo tanto, no puede definir ningún servidor que no sea WLM cuando utiliza el asesor WLM.
    3. Otros asesores ponen su información de carga en el informe de gestor bajo su columna "Puerto". El asesor WLM pone su información de carga en el informe del gestor bajo la columna del sistema.
    4. Junto con el asesor WLM es posible utilizar los dos asesores específicos del protocolo. Los asesores específicos de protocolo sondearán los servidores en sus puertos de tráfico normal y el asesor WLM sondeará la carga del sistema utilizando el puerto WLM.

    Restricción para Metric Server

    Al igual que el agente de Metric Server, el agente de WLM informa sobre los sistemas de servidor como un conjunto, en lugar de hacerlo en daemons de servidor individuales específicos del protocolo. Metric Server y WLM colocan sus resultados en la columna de sistema del informe del gestor. Como consecuencia, no se permite la ejecución simultánea del asesor WLM y de Metric Server


    Características avanzadas para Dispatcher, CBR y Site Selector

    En este capítulo se explica cómo configurar los parámetros de equilibrio de carga así como las funciones avanzadas de Load Balancer.

    Nota:
    Al leer este capítulo, si no está utilizando el componente Dispatcher, sustituya "dscontrol" por lo siguiente:

    Tabla 16. Tareas de configuración avanzada para Load Balancer

    Tarea Descripción Información relacionada
    Poner en ubicación compartida Load Balancer en una máquina que tiene equilibrio de carga Configura una máquina Load Balancer con ubicación compartida. Utilización de servidores con ubicación compartida
    Configurar alta disponibilidad o alta disponibilidad mutua Configura una segunda máquina Dispatcher para proporcionar una máquina de reserva. Alta disponibilidad
    Configurar el equilibrio de carga basado en reglas Define las condiciones en las que se utiliza un conjunto de servidores. Configuración del equilibrio de carga basado en reglas
    Utilizar la alteración temporal de la afinidad entre puertos para proporcionar un mecanismo para que un servidor altere la característica de permanencia en memoria. Permite a un servidor alterar el valor de permanencia en memoria en este puerto. Alteración temporal de la afinidad entre puertos
    Utilizar característica de permanencia en memoria (afinidad) para configurar el puerto de un clúster para que sea permanente en memoria Permite dirigir al mismo servidor las peticiones de cliente. Cómo funciona la característica de afinidad para Load Balancer
    Utilizar afinidad entre puertos para expandir la característica de permanencia en memoria(afinidad) entre los puertos Permite dirigir al mismo servidor las peticiones de cliente que se reciben en distintos puertos. Afinidad entre puertos
    Utilizar máscara de dirección de afinidad para designar una dirección de subred IP común Permite dirigir al mismo servidor las peticiones de cliente que se reciben en la misma subred. Máscara de dirección de afinidad (stickymask)
    Utilizar afinidad de cookies activos para equilibrar la carga en servidores de CBR Una opción de regla que permite que una sesión mantenga afinidad para un servidor concreto. Afinidad de cookies activos
    Utilizar afinidad de cookies pasivos para equilibrar la carga en servidores con direccionamiento basado en contenido de Dispatcher y el componente CBR Una opción de regla que permite que una sesión mantenga afinidad para un servidor concreto en función del valor de cookie/nombre de cookie. Afinidad de cookies pasivos
    Utilizar la afinidad de URI para equilibrar la carga en los servidores Caching Proxy con contenido exclusivo para almacenarlo en la memoria caché de cada uno de ellos Una opción de regla que permite que una sesión mantenga afinidad para un servidor concreto en función del URI. Afinidad de URI
    Configurar el soporte de Dispatcher de red de área amplia Configura un Dispatcher remoto para equilibrar la carga en toda una red de área amplia. O bien, equilibra la carga en toda una red de área amplia (sin un Dispatcher remoto) utilizando una plataforma de servidor que dé soporte a GRE. Configurar soporte de Dispatcher de área amplia
    Utilizar enlace explícito Evita que Dispatcher se pase por alto en los enlaces. Utilización del enlace explícito
    Utilizar una red privada Configura Dispatcher para equilibrar la carga en los servidores de una red privada. Utilización de una configuración de red privada
    Utilizar un clúster comodín para combinar configuraciones de servidores comunes Las direcciones que no se han configurado de forma explícita utilizarán el clúster comodín como una forma de equilibrar la carga del tráfico. Utilizar un clúster comodín para combinar configuraciones de servidores
    Utilizar clúster comodín cara equilibrar la carga de cortafuegos Se equilibrará la carga de todo el tráfico en cortafuegos. Utilizar un clúster comodín para equilibrar la carga de cortafuegos
    Utilizar el clúster comodín con Caching Proxy para un proxy transparente Permite utilizar Dispatcher para habilitar un proxy transparente. Utilizar el clúster comodín con Caching Proxy para un proxy transparente
    Utilizar puerto comodín para dirigir tráfico de puerto no configurado Maneja el tráfico que no está configurado para cualquier puerto específico. Utilizar el puerto comodín para dirigir el tráfico de puerto no configurado
    Utilizar la detección de "ataques para rechazo de servicio" (DoS) para notificar a los administradores (mediante una alerta) los ataques potenciales Dispatcher analiza peticiones entrantes para una cantidad llamativa de conexiones TCP medio abiertas en servidores. Detección de ataques para rechazo de servicio (DoS)
    Utilizar el registro cronológico binario para analizar estadísticas de servidor Permite almacenar en archivos binarios la información del servidor y recuperarla. Utilización del registro cronológico binario para analizar estadísticas de servidor
    Utilizar una configuración de cliente con ubicación compartida Permite a Load Balancer residir en la misma máquina que un cliente Utilización de un cliente con ubicación compartida

    Utilización de servidores con ubicación compartida

    Load Balancer puede residir en la misma máquina que un servidor para el que equilibre la carga de las peticiones. Esto se conoce habitualmente como ubicación compartida de un servidor. La ubicación compartida se aplica a los componentes Dispatcher y Site Selector. La ubicación compartida también se admite en CBR, pero sólo cuando utiliza servidores Web específicos del enlace y Caching Proxy específico del enlace.

    Nota:
    Un servidor con ubicación compartida compite por los recursos contra Load Balancer durante los periodos de mucho tráfico. Sin embargo, si no hay máquinas sobrecargadas, si se utiliza un servidor con ubicación compartida se reducirá el número total de máquinas necesarias para definir un sitio con equilibrio de carga.

    Para el componente Dispatcher

    Sistemas Linux: para configurar la ubicación compartida y la alta disponibilidad a la vez cuando se ejecuta el componente Dispatcher utilizando el método de reenvío MAC, consulte el apartado Alternativas de alias de bucle de retorno de Linux cuando se utiliza el reenvío MAC de Load Balancer.

    Sistemas Windows: para configurar la ubicación compartida y la alta disponibilidad a la vez cuando se ejecuta el componente Dispatcher utilizando el método de reenvío MAC, consulte el apartado Configurar la ubicación compartida y la alta disponibilidad (sistemas Windows).

    Sistemas Solaris: existe una limitación; no pueden configurarse asesores WAN cuando Dispatcher de punto de entrada tiene ubicación compartida. Consulte el apartado Utilización de asesores remotos con el soporte de área amplia de Dispatcher.

    En releases anteriores, era necesario especificar que la dirección del servidor con ubicación compartida fuera la misma que la dirección de no reenvío (NFA) en la configuración. Esta restricción ya no existe.

    Para configurar un servidor para que forme parte de una ubicación compartida, el mandato dscontrol server proporciona una opción llamada collocated que puede establecerse en yes o no. El valor predeterminado es no. La dirección del servidor debe ser una dirección IP válida de una tarjeta de interfaz de red de la máquina. El parámetro collocated no debe establecerse para servidores con ubicación compartida que utilizan el método de reenvío NAT o CBR de Dispatcher.

    Puede configurar un servidor con ubicación compartida de una de las siguientes maneras:

    Para el reenvío NAT o CBR de Dispatcher, debe configurar (crear un alias) una dirección de adaptador no utilizada en la NFA. El servidor debe configurarse de modo que escuche en esta dirección. Configure el servidor con la siguiente sintaxis de mandato:

    dscontrol server add clúster:puerto:nuevo_alias address nuevo_alias router ip_direccionador 
    returnaddress dirección_retorno
    

    Si no se configura pueden producirse errores del sistema, que no haya respuesta del servidor, o los dos.

    Configuración de la ubicación compartida del servidor con el reenvío NAT de Dispatcher

    Al configurar un servidor con ubicación compartida utilizando el método de reenvío nat de Dispatcher, el direccionador especificado en el mandato dscontrol server add debe ser una dirección de direccionador real y no la dirección IP del servidor.

    El soporte para la ubicación compartida al configurar el método de reenvío NAT de Dispatcher ahora puede llevarse a cabo en todos los sistemas operativos si se llevan a cabo los siguientes pasos en la máquina Dispatcher:

    Para el componente CBR

    CBR da soporte a la ubicación compartida en todas las plataformas sin que sea necesario realizar configuraciones adicionales. No obstante, los servidores Web y Caching Proxy que utilice deben ser específicos del enlace.

    Para el componente Site Selector

    Site Selector da soporte a la ubicación compartida en todas las plataformas sin que sea necesario realizar configuraciones adicionales.


    Alta disponibilidad

    La función de alta disponibilidad (que puede configurarse con el mandato dscontrol highavailability) está disponible para el componente Dispatcher, pero no para el componente CBR o Site Selector.

    Para mejorar la disponibilidad de Dispatcher, la función del alta disponibilidad de Dispatcher utiliza los siguientes mecanismos:

    Nota:
    Para ver un ejemplo y una descripción de alta disponibilidad mutua , donde dos máquinas Dispatcher que comparten dos conjuntos de clústeres actúan como máquina de reserva entre sí, consulte el apartado Alta disponibilidad mutua. La alta disponibilidad mutua es parecida a la alta disponibilidad aunque se basa específicamente en la dirección de clúster en lugar de basarse en una máquina Dispatcher como un todo. Las dos máquinas deben configurar sus conjuntos de clústeres compartidos del mismo modo.

    Configurar la alta disponibilidad

    La sintaxis completa para dscontrol highavailability puede verse en dscontrol highavailability -- controlar alta disponibilidad.

    Para obtener una descripción completa de muchas de las tareas que se indican a continuación, consulte el apartado Configuración de la máquina Dispatcher.

    1. Cree archivos script de alias en cada una de las dos máquinas Dispatcher. Consulte el apartado Utilización de scripts.
    2. Inicie el servidor en las dos máquinas servidor Dispatcher.
    3. Inicie el ejecutor en las dos máquinas.
    4. Asegurarse de que la dirección de no reenvío (NFA) de cada máquina Dispatcher está configurada y que es una dirección IP válida para la subred de las máquinas Dispatcher.
    5. Añada la información de pulsos en las dos máquinas:
      dscontrol highavailability heartbeat add dirección_origen dirección_destino
      
      Nota:
      dirección_origen y dirección_destino son las direcciones IP (los nombres DNS o las direcciones IP) de las máquinas Dispatcher. Los valores se invertirán en cada máquina. Por ejemplo:
      Primary - highavailability heartbeat add 9.67.111.3 9.67.186.8
      Backup  - highavailability heartbeat add 9.67.186.8 9.67.111.3
      
      Como mínimo un par de pulsos debe tener las NFA del par como dirección de origen y destino.

      Si es posible, al menos uno de los pares de pulsos debe estar en una subred distinta del tráfico del clúster normal. Si el tráfico de pulsos se identifica claramente se evitará que se produzcan falsas lecturas de otras señales en condiciones de cargas elevadas en la red y se mejorarán los tiempos de recuperación completos después de producirse una sustitución por anomalía.

      Establezca dl número de segundos que el ejecutor utiliza para indicar el tiempo de espera de los pulsos de alta disponibilidad. Por ejemplo:

      dscontrol executor set hatimeout 3
      

      El valor predeterminado es 2.

    6. En las dos máquinas, configure la lista de direcciones IP que Dispatcher debe poder alcanzar para garantizar un servicio completo, utilizando el mandato reach add. Por ejemplo:
      dscontrol highavailability reach add 9.67.125.18
      
      Los destinos de alcance son recomendables aunque no necesarios. Consulte el apartado Capacidad de detección de anomalías utilizando pulsos y destino de alcance para obtener más información.
    7. Añada la información de reserva para cada máquina:
      Nota:
      Seleccione un puerto no utilizado en las máquinas como puerto. El número de puerto entrado se utilizará como clave para asegurarse de que el paquete lo recibe el host correcto.
    8. Compruebe el estado de alta disponibilidad en cada máquina:
      dscontrol highavailability status
      
      Cada una de las máquinas debe tener el rol correcto (reserva, primaria o ambos), estados y subestados. La máquina primaria debe estar activa y sincronizada; la máquina de reserva debe estar en modalidad de reposo y debe sincronizarse dentro de poco tiempo. Las estrategias deben ser las mismas.
    9. Establezca la información de clúster, puerto y servidor en las dos máquinas.
      Nota:
      Para ver una configuración de alta disponibilidad mutua (Figura 14), por ejemplo, configure los conjuntos del clúster compartidos entre los dos sistemas Dispatcher tal como se indica a continuación:
      • Para Dispatcher 1, emita:
        dscontrol cluster set clústerA primaryhost NFAdispatcher1
        dscontrol cluster set clústerB primaryhost NFAdispatcher2
        
      • Para Dispatcher 2, emita:
        dscontrol cluster set clústerB primaryhost NFAdispatcher2
        dscontrol cluster set clústerA primaryhost NFAdispatcher1
        
    10. Inicie el gestor y los asesores en las dos máquinas.

    Notas:

    1. Para configurar una sola máquina Dispatcher para direccionar paquetes sin una máquina de reserva, no emita ninguno de los mandatos de alta disponibilidad durante el arranque.

    2. Para convertir dos máquinas Dispatcher configuradas para alta disponibilidad en una sola máquina, detenga el ejecutor en una de las máquinas y suprima las características de alta disponibilidad (los pulsos, alcance y reserva) de la otra.

    3. En los dos casos anteriores, debe utilizar direcciones de clúster para crear un alias para la tarjeta de interfaz de red, según sea necesario.

    4. Cuando dos máquinas Dispatcher se ejecutan en configuración de alta disponibilidad y están sincronizadas, entre primero todos los mandatos dscontrol (para actualizar la configuración) en la máquina en espera y después en la máquina activa.

    5. Cuando se ejecutan dos máquinas Dispatcher en una configuración de alta disponibilidad, pueden producirse resultados inesperados si en las dos máquinas se establecen distintos valores en alguno de los parámetros para el ejecutor, puerto o servidor (por ejemplo, port stickytime).

    6. Para la alta disponibilidad mutua, considere el caso en que uno de las máquinas Dispatcher debe direccionar de forma activa paquetes para su clúster primario así como tomar el control del direccionamiento de paquetes para el clúster de reserva. Asegúrese que esto no exceda la capacidad de la producción en esta máquina.

    7. En sistemas Linux, al configurar la alta disponibilidad y la ubicación compartida a la vez utilizando el método de reenvío del puerto MAC del componente Dispatcher, consulte el apartado Alternativas de alias de bucle de retorno de Linux cuando se utiliza el reenvío MAC de Load Balancer.

    8. En sistemas Windows, al configurar la alta disponibilidad y la ubicación compartida a la vez, consulte el apartado Configurar la ubicación compartida y la alta disponibilidad (sistemas Windows).

    9. Si desea sugerencias que le ayuden a reducir los problemas que pueden surgir derivados de los problemas de configuración de alta disponibilidad, como por ejemplo: Consulte el apartado Problema: sugerencias para configurar la alta disponibilidad.

    Capacidad de detección de anomalías utilizando pulsos y destino de alcance

    Además de los criterios básicos de detección de anomalía (la pérdida de conectividad entre máquinas Dispatcher activas y en espera, que se detecta a través de los mensajes de pulso), hay otro mecanismo de detección de anomalías denominado criterios de accesibilidad. Al configurar Dispatcher se puede proporcionar una lista de hosts a los que cada una de las máquinas Dispatcher debe poder llegar para funcionar correctamente. Los dos socios de alta disponibilidad se comunican constantemente a través de pulsos y se actualizan mutuamente en lo que se refiere a la cantidad de destinos de alcance a los que pueden emitir mandatos ping. Si, mediante mandatos ping, la máquina en espera puede acceder a más destinos de alcance que la máquina activa, se produce una sustitución por anomalía.

    Los pulsos los envía la máquina Dispatcher activa y está previsto que la máquina Dispatcher en espera los reciba cada medio segundo. Si la máquina Dispatcher en espera no puede recibir un pulso durante un intervalo 2 segundos, se empieza un proceso de sustitución por anomalía. Para que se produzca un proceso de toma de control por parte de la máquina Dispatcher en espera, es necesario que se interrumpan todos los pulsos. Es decir, cuando hay dos pares de pulsos configurados, los dos pulsos deben interrumpirse. Para estabilizar el entorno de alta disponibilidad y para evitar que se produzca una sustitución por anomalía, añada más de un par de pulsos.

    Para los destinos de alcance, debe elegir como mínimo un host para cada subred que utiliza la máquina Dispatcher. Los hosts pueden ser direccionadores, servidores IP u otros tipos de hosts. La accesibilidad de hosts se obtiene mediante el asesor de alcance que emite el mandato ping al host. La sustitución por anomalía tiene lugar si los mensajes de pulso no pueden transmitirse o si los criterios de accesibilidad los satisface mejor la máquina Dispatcher en espera que la máquina Dispatcher activa. Para tomar una decisión basándose en toda la información disponible, la máquina Dispatcher activa envía regularmente su capacidad de accesibilidad a la máquina Dispatcher en espera. Luego la máquina Dispatcher en espera compara esta capacidad con la suya y decide si debe conmutar el control.

    Nota:
    Al configurar el destino de alcance, también debe iniciarse el asesor de alcance. El asesor de alcance se inicia automáticamente al iniciar la función de gestor. Si desea más información sobre el asesor de alcance, consulte la página (REACHADV).

    Estrategia de recuperación

    Hay configuradas dos máquinas Dispatcher: la máquina primaria y una segunda máquina denominada de reserva. Durante el arranque, la máquina primaria envía todos los datos de conexión a la máquina de reserva hasta que la máquina se sincroniza. La máquina primaria pasa a estar activa, es decir, empieza el equilibrio de carga. Mientras tanto, la máquina de reserva supervisa el estado de la máquina primaria y se dice que está en estado en espera.

    Si en cualquier momento la máquina de reserva detecta que la máquina primaria ha sufrido una anomalía, tomará el control de las funciones de equilibrio de carga de la máquina primaria y pasará a ser la máquina activa. Cuando la máquina primaria vuelve a estar en funcionamiento, las máquinas responden de acuerdo con la estrategia de recuperación configurada por el usuario. Existen dos tipos de estrategia:

    Automática
    La máquina primaria reanuda el direccionamiento de paquetes tan pronto vuelve a estar en funcionamiento.

    Manual
    La máquina de reserva sigue direccionando paquetes incluso después de que la primaria pase a estar en funcionamiento. Para devolver la máquina primaria al estado activo y restablecer la máquina de reserva al estado en espera es necesario realizar una intervención manual.

    El parámetro strategy debe tener el mismo valor en ambas máquinas.

    Utilizando el mandato takeover, la estrategia de recuperación manual permite forzar el direccionamiento de paquetes a una máquina determinada. La recuperación manual es útil cuando el mantenimiento se lleva a cabo en la otra máquina. La estrategia de recuperación de automática está diseñada para operaciones desatendidas normales.

    En una configuración de alta disponibilidad mutua, no se produce ninguna anomalía por clúster. Si hay algún problema en una máquina, incluso si sólo afecta a un clúster, la otra máquina tomará el control de los dos clústeres.

    Nota:
    Durante las situaciones de toma de control, es posible que se pierdan algunas actualizaciones de conexiones. Esto puede causar que se terminen conexiones de larga ejecución existentes (como Telnet) a las que se está accediendo cuando se lleva a cabo la toma de control.

    Utilización de scripts

    Para que Dispatcher direccione paquetes, cada dirección de clúster debe tener un alias asociado a un dispositivo de interfaz de red.

    Para obtener información sobre la creación de un alias para la tarjeta de interfaz de red, consulte el Paso 5. Crear un alias para la tarjeta de interfaz de red.

    Puesto que las máquinas Dispatcher cambiarán su estado cuando se detecte una anomalía, los mandatos anteriores deben emitirse automáticamente. Para ello Dispatcher ejecutará scripts creados por el usuario. Los scripts de ejemplo se encuentran en el directorio ...ibm/edge/lb/servers/samples y deben moverse al directorio ...ibm/edge/lb/servers/bin para que funcionen. Los scripts se ejecutarán automáticamente sólo si dsserver se está ejecutando.

    Notas:

    1. En una configuración de alta disponibilidad mutua, Dispatcher invoca cada script "go" con un parámetro que identifique la dirección del Dispatcher primario. El script debe consultar este parámetro y ejecutar los mandatos executor configure para dichas direcciones de clúster asociadas a dicho Dispatcher primario.

    2. Para configurar la alta disponibilidad para el método de reenvío NAT de Dispatcher, debe añadir a los archivos de script las direcciones de retorno.

    Se pueden utilizar los siguientes scripts de ejemplo:

    goActive
    El script goActive se ejecuta cuando un Dispatcher pasa a estado activo y empieza el direccionamiento de paquetes.

    goStandby
    El script goStandby se ejecuta cuando Dispatcher pasa al estado en espera y supervisa el estado de la máquina activa, pero sin direccionar ningún paquete.

    goInOp
    El script goInOp se ejecuta cuando se detiene un ejecutor de Dispatcher.

    goIdle
    El script goIdle se ejecuta cuando un Dispatcher pasa a estado desocupado y empieza el direccionamiento de paquetes. Esto ocurre cuando no se han añadido las características de alta disponibilidad, como en una configuración autónoma. También sucede en una configuración de alta disponibilidad antes de añadir las características de alta disponibilidad o después de eliminarlas.

    highavailChange
    El script highavailChange se ejecuta siempre que cambia el estado de alta disponibilidad dentro de Dispatcher, como ocurre cuando se llama a los scripts "go". El parámetro único pasado a este script es el nombre del script "go" que acaba de ejecutar Dispatcher. Cree este script para utilizar información de cambio de estado, por ejemplo, para avisar a un administrador o para anotar el suceso.

    En sistemas Windows: en la configuración, si dispone de Site Selector para equilibrar la carga de dos máquinas Dispatcher que están funcionando en un entorno de alta disponibilidad, será necesario añadir un alias a la pila de Microsoft para los Metric Servers. Este alias debe añadirse al script goActive. Por ejemplo:

    call netsh interface ip add address "Conexión de área local"
      addr=9.37.51.28 mask=255.255.240.0
    

    En el caso de goStandby y goInOp, será necesario suprimir el alias: Por ejemplo:

    call netsh interface ip delete address "Conexión de área local"
      addr=9.37.51.28
    

    Si hay varias NIC en la máquina, compruebe primero qué interfaz debe utilizar emitiendo el siguiente mandato en el indicador de mandatos: netsh interface ip show address. Este mandato devolverá una lista de las interfaces configuradas actualmente y asignará un número a "Conexión de área local" (por ejemplo, "Conexión de área local 2") para que pueda determinar cuál debe utilizar.

    En Linux para S/390(R): Dispatcher emite un ARP injustificado para poder mover direcciones IP desde un Dispatcher a otro. Este mecanismo está, por lo tanto, relacionado con el tipo de red implícito. Al ejecutar Linux para S/390, Dispatcher puede hacer tomas de control de alta disponibilidad de manera nativa (completa con movimientos de la dirección IP) sólo en aquellas interfaces que pueden emitir un ARP y configurar la dirección en la interfaz local. Este mecanismo no funcionará correctamente en interfaces punto a punto como, por ejemplo, IUCV y CTC, y no funcionará correctamente en algunas configuraciones de qeth/QDIO.

    Para estas interfaces y configuraciones donde la función de toma de control de IP nativa del Dispatcher no funcionará correctamente, el cliente puede colocar mandatos adecuados en los scripts go para mover las direcciones de manera manual. De esta manera también se asegurará de que dichas topologías de red se puedan beneficiar de la alta disponibilidad.

    Configurar la ubicación compartida y la alta disponibilidad (sistemas Windows)

    Es posible configurar tanto la alta disponibilidad como la ubicación compartida en servidores Windows. Sin embargo, para configurar estas características de Load Balancer juntas en sistemas Windows son necesarios unos pasos adicionales.

    En sistemas Windows, cuando se utiliza la ubicación compartida con la alta disponibilidad, necesitará una dirección IP adicional, una especie de dirección IP ficticia, que pueda añadirse al adaptador de bucle de retorno. Es necesario instalar el adaptador de bucle de reserva tanto en la máquina primaria como en la máquina de reserva. Para instalar el dispositivo de bucle de retorno en sistemas Windows, siga los pasos descritos en Configuración de máquinas de servidor para el equilibrio de carga.

    Cuando los pasos indiquen que añada la dirección IP de clúster al bucle de retorno, deberá añadir una dirección IP ficticia, no la dirección del clúster. Esto se debe a que los scripts go* de alta disponibilidad para sistemas Windows necesitan suprimir y añadir la dirección de clúster al dispositivo de bucle de retorno, en función de si la máquina de Load Balancer está activa o en espera.

    Los sistemas Windows no permitirán que se elimine del dispositivo de bucle de retorno la última dirección IP configurada porque el dispositivo de bucle de retorno no funciona en modalidad DHCP. La dirección ficticia permite a Load Balancer eliminar en cualquier momento su dirección de clúster. La dirección IP ficticia no se utilizar para ningún tipo de tráfico y se puede utilizar tanto en la máquinas activa como en la máquina de reserva.

    Actualice y traslade los scripts go* de Load Balancer de la máquinas activa y en espera y, a continuación, inicie Dispatcher. La dirección del clúster se añadirá y eliminará de la interfaz de red y de los dispositivos de bucle de retorno en los momentos adecuados.


    Configuración de equilibrio de carga basado en reglas

    Utilice el equilibrio de carga basado en reglas para ajustar cuándo y porqué los paquetes se envían a qué servidores. Load Balancer examina todas las reglas que se añaden, desde la primera prioridad a la última, se detiene en la primera regla que es cierta y luego equilibra la carga del contenido entre todos los servidores asociados a la regla. Ya se ha equilibrado la carga basada en el destino y el puerto, pero si se utilizan reglas se amplía la capacidad de distribuir conexiones.

    En la mayoría de los casos, al configurar reglas se debe configurar una regla siempre cierta para poder detectar cualquier petición pasada por otras reglas de prioridad más altas. Este valor predeterminado puede ser la respuesta "Lo sentimos, el sitio está inactivo actualmente, inténtelo más adelante" cuando los demás servidores no pueden aceptar la petición de cliente.

    Debe utilizar el equilibrio de carga basado en reglas con Dispatcher y Site Selector cuando por alguna razón desea utilizar un subconjunto de servidores. Siempre debe utilizar reglas para el componente CBR.

    Puede elegir entre los siguientes tipos de reglas:

    Antes de empezar a añadir reglas a la configuración, planifique la lógica que desea que sigan las reglas.

    ¿Cómo se evalúan las reglas?

    Todas las reglas tienen un nombre, un tipo, una prioridad y pueden tener un inicio del rango y un final del rango, junto con un conjunto de servidores. Además, la regla de tipo contenido para el componente CBR tiene asociado un patrón de expresión regular coincidente. (Si desea ver ejemplos y casos de cómo utilizar la regla de contenido y la sintaxis de patrón válida para la regla de contenido, consulte el Apéndice B. Sintaxis de la regla de contenido (patrón)).

    Las reglas se evalúen en orden de prioridad. Es decir, una regla con prioridad 1 (número más bajo) se evalúa antes que una regla con prioridad 2 (número más alto). Se utilizará la primera regla que se satisfaga. Una vez que se ha satisfecho una regla, no se evalúan más reglas.

    Para que una regla se satisfaga, debe cumplir dos condiciones:

    1. El predicado de la regla debe ser verdadero. Es decir, el valor que está evaluando debe estar entre los rangos de inicio y fin, o el contenido debe coincidir con la expresión regular especificada en el patrón de la regla de contenido. Para las reglas de tipo "true," el predicado siempre se satisface, independientemente de los rangos de inicio y fin.
    2. Si hay servidores asociados a esta regla, como mínimo debe haber uno con un peso mayor que 0 al que reenviar paquetes.

    Si una regla no tiene asociado ningún servidor, sólo es necesario que la regla cumpla la condición uno para que se satisfaga. En este caso, Dispatcher descartará la petición de conexión, Site Selector devolverá la petición del servidor de nombres con un error, y CBR hará que Caching Proxy devuelva una página de error.

    Si no se satisface ninguna regla, Dispatcher seleccionará un servidor del total de servidores disponibles en el puerto, Site Selector seleccionará un servidor del total de servidores disponibles en el nombre de sitio y CBR provocará que Caching Proxy devuelva una página de error.

    Utilización de reglas basadas en la dirección IP de cliente

    Este tipo de regla está disponible en el componente Dispatcher, CBR o Site Selector.

    Utilice reglas basadas en la dirección IP de cliente si desea filtrar los clientes y asignar los recursos en función del lugar de donde proceden.

    Por ejemplo, si observa que hay demasiado tráfico sin pagar en la red, y por lo tanto no deseado, que procede de un grupo específico de direcciones IP. Cree una regla utilizando el mandato dscontrol rule , por ejemplo:

    dscontrol rule add 9.67.131.153:80:ni type ip 
      beginrange 9.0.0.0 endrange 9.255.255.255
    

    Esta regla "ni" filtra cualquier conexión de clientes no deseados. A continuación, añada a la regla los servidores a los que se podrá acceder, o si no añade ningún servidor a la regla, los servidores no atenderán las peticiones que procedan de las direcciones 9.x.x.x.

    Utilización de reglas basadas en el puerto de cliente

    Este tipo de regla sólo está disponible en el componente Dispatcher.

    Utilice reglas basadas en el puerto de cliente, si los clientes utilizan algún tipo de software que solicita un puerto específico de TCP/IP cuando realiza peticiones.

    Por ejemplo, cree una regla que indique que todas las peticiones que tengan el puerto de cliente 10002 podrán utilizar un conjunto de servidores rápidos especiales porque sabe que todas las peticiones de cliente con dicho puerto proceden de un grupo selecto de clientes.

    Utilización de reglas basadas en la hora del día

    Este tipo de regla está disponible en el componente Dispatcher, CBR o Site Selector.

    Utilice reglas basadas en la hora del día por razones de planificación de capacidad. Por ejemplo, si se accede al sitio Web mayormente durante el mismo grupo de horas cada día, puede dedicar cinco servidores adicionales durante el periodo de hora punta.

    Otra razón por la que puede utilizar una regla basada en la hora del día es cuando desea apagar algunos de los servidores para realizar su mantenimiento cada día a medianoche, por lo que puede establecer una regla que excluya estos servidores durante el periodo de mantenimiento necesario.

    Utilización de reglas basadas en el tipo de servicio (TOS)

    Este tipo de regla sólo está disponible en el componente Dispatcher.

    Utilice reglas basadas en el contenido del campo de "tipo de servicio" (TOS) en la cabecera IP. Por ejemplo, si una petición de cliente llega con un valor TOS que indica servicio normal, puede direccionarse a un conjunto de servidores. Si una petición de cliente diferente llega con un valor de TOS distinto que indica una prioridad de servicio más alta, puede direccionarse a un grupo de servidores distinto.

    La regla TOS permite configurar completamente cada bit del byte TOS utilizando el mandato dscontrol rule. Para bits significativos que desee hacer coincidir en el byte TOS, utilice 0 o 1. Si no, utilice el valor x. A continuación se muestra un ejemplo de adición de una regla TOS:

    dscontrol rule add 9.67.131.153:80:tsr type service tos 0xx1010x
    

    Utilización de reglas basadas en las conexiones por segundo

    Este tipo de regla está disponible en los componentes Dispatcher y CBR.

    Nota:
    El gestor debe estar en ejecución para que lo siguiente funcione.

    Utilice reglas basadas en conexiones por segundo si necesita compartir algunos de los servidores con otras aplicaciones. Por ejemplo, puede establecer dos reglas:

    1. Si el número de conexiones por segundo en el puerto 80 oscila entre 0 y 2000, utilice estos 2 servidores
    2. Si el número de conexiones por segundo en el puerto 80 es superior a 2000, utilice estos 10 servidores

    O, puede utilizar Telnet y reservar dos de los cinco servidores para Telnet, excepto cuando las conexiones por segundo superen un determinado nivel. De esta forma, Dispatcher equilibrará la carga en todos los cinco servidores durante las horas punta.

    Si establece la opción de evaluación de reglas "upserversonrule" junto con la regla de tipo "conexión": cuando se utiliza la regla de tipo conexión y se establece la opción upserversonrule, si algunos de los servidores del conjunto de servidores están inactivos, puede garantizar que no se sobrecargarán los servidores restantes. Si desea más información, consulte el apartado Opción de evaluación del servidor para reglas.

    Utilización de reglas basadas en el total de conexiones activas

    Este tipo de regla está disponible en el componente Dispatcher o CBR.

    Nota:
    El gestor debe estar en ejecución para que lo siguiente funcione.

    Utilice reglas basadas en el total de conexiones activas en un puerto si los servidores se sobrecargan y empiezan a descartar paquetes. Determinados servidores Web seguirán aceptando conexiones incluso cuando no tengan suficientes hebras para responder a la petición. Como resultado, las peticiones de cliente excederán el tiempo de espera y no se atenderá al cliente procedente del sitio Web. Utilice reglas basadas en conexiones activas para equilibrar la capacidad dentro de una agrupación de servidores.

    Por ejemplo, sabe por experiencia que los servidores dejarán de dar servicio una vez que han aceptado 250 conexiones. Cree una regla utilizando el mandato dscontrol rule o el mandato cbrcontrol rule, por ejemplo:

    dscontrol rule add 130.40.52.153:80:pool2 type active 
      beginrange 250 endrange 500
     
    o
     
    cbrcontrol rule add 130.40.52.153:80:pool2 type active
      beginrange 250 endrange 500
     
    

    A continuación, añada a la regla los servidores actuales y a algunos servidores adicionales, que si no se utilizarán para otro proceso.

    Utilización de reglas basadas en ancho de banda reservado y ancho de banda compartido

    Las reglas de ancho de banda reservado y ancho de banda compartido sólo están disponibles en el componente Dispatcher.

    Para las reglas de ancho de banda, Dispatcher calcula el ancho de banda como la velocidad a la que un conjunto de servidores entregan los datos a los clientes. Dispatcher realiza un seguimiento de la capacidad en los niveles de servidor, regla, puerto, clúster y ejecutor. Para cada uno de estos niveles, hay un campo de contador de bytes: kilobytes transferidos por segundo. Dispatcher calcula estas velocidades a un intervalo de 60 segundos. Puede ver estas velocidades en la GUI o en la salida de un informe de línea de mandatos.

    Regla de ancho de banda reservado

    La regla de ancho de banda reservado permite controlar el número de kilobytes por segundos que entregan un conjunto de servidores. Si se establece un umbral (asignando un rango de ancho de banda específico) para cada conjunto de servidores en toda la configuración, puede controlar y garantizar la cantidad de ancho de banda que utiliza cada combinación de clúster-puerto.

    A continuación se muestra un ejemplo de adición de una regla de ancho de banda reservado:

    dscontrol rule add 9.67.131.153:80:rbw type reservedbandwidth 
      beginrange 0 endrange 300
    

    El inicio del rango y el final del rango se especifican en kilobytes por segundo.

    Regla de ancho de banda compartido

    Antes de configurar la regla de ancho de banda compartido, debe especificar la cantidad máxima de ancho de banda (kilobytes por segundo) que puede compartirse en el nivel de ejecutor o clúster utilizando el mandato dscontrol executor o dscontrol cluster con la opción sharedbandwidth. El valor de sharedbandwidth no debe exceder el ancho de banda total (capacidad total de la red) disponible. Si se utiliza el mandato dscontrol para establecer el ancho de banda compartido sólo se proporciona un límite superior para la regla.

    A continuación se muestran ejemplos de la sintaxis de mandato:

    dscontrol executor set sharedbandwidth tamaño
    dscontrol cluster [add | set] 9.12.32.9 sharedbandwidth tamaño
    

    El tamaño para sharedbandwidth es un valor entero (kilobytes por segundo). El valor predeterminado es cero. Si el valor es cero, el ancho de banda no puede compartirse.

    El ancho de banda compartido en el nivel de clúster permite que el clúster utilice el máximo ancho de banda especificado. Mientras el ancho de banda utilizado por el clúster esté por debajo de la cantidad especificada, esta regla se evaluará como true. Si el ancho de banda total utilizado es superior a la cantidad especificada, esta regla se evaluará como false.

    Si se comparte el ancho de banda en el nivel de ejecutor, se permitirá que toda la configuración de Dispatcher comparta una cantidad máxima de ancho de banda. Mientras el ancho de banda utilizado en el nivel de ejecutor esté por debajo de la cantidad especificada, esta regla se evaluará como true. Si el ancho de banda total utilizado es superior al definido, esta regla se evaluará como false.

    A continuación se muestran ejemplos de la adición o definición de una regla de ancho de banda compartido:

    dscontrol rule add 9.20.30.4:80:shbw type sharedbandwidth sharelevel valor
    dscontrol rule set 9.20.34.11:80:shrule sharelevel valor
    

    El valor para sharelevel es executor o cluster. Sharelevel es un parámetro necesario en la regla de ancho de banda compartido.

    Utilización de reglas de ancho de banda reservado y compartido

    Dispatcher permite asignar un ancho de banda específico a conjuntos de servidores dentro de la configuración mediante la regla de ancho de banda reservado. Si especifica un inicio y un final del rango puede controlar el rango de kilobytes entregados por un conjunto de servidores a los clientes. Cuando la regla ya no se evalúe como true (se excede el final del rango), se evaluará la regla con prioridad más baja siguiente. Si la regla de prioridad más baja siguiente es una regla "siempre cierta", se podría seleccionar un servidor para responder al cliente con una respuesta de "sitio ocupado".

    Por ejemplo, suponga un grupo de tres servidores en el puerto 2222. Si el ancho de banda reservado se establece en 300, la cantidad máxima de kbytes por segundo es de 300, en un periodo de 60 segundos. Cuando esta velocidad se excede, la regla ya no se evaluará como true. Si ésta fuera la única regla, Dispatcher seleccionaría uno de los tres servidores para manejar la petición. Si hubiera una regla "siempre cierta" con prioridad más baja, la petición podría dirigirse a otro servidor y responderse con "sitio ocupado".

    La regla de ancho de banda compartido puede proporcionar a los clientes acceso a servidores adicionales. En concreto, cuando se utiliza como una regla de prioridad más baja después de una regla de ancho de banda reservado, un cliente seguirá pudiendo acceder a un servidor incluso si se ha excedido el ancho de banda reservado.

    Por ejemplo, si utiliza una regla de ancho de banda compartido después de una regla de ancho de banda reservado, puede permitir a los clientes que accedan a los tres servidores de una forma controlada. Mientras haya un ancho de banda compartido para utilizarse, la regla se evaluará como true y se otorgará el acceso. Si no hay ningún ancho de banda compartido disponible, la regla no es true y se evalúa la regla siguiente. Si a continuación hay una regla "siempre cierta", la petición puede redirigirse según sea necesario.

    Si utiliza el ancho de banda reservado y compartido tal como se describe en el ejemplo anterior, se podrá ejercer una mayor flexibilidad al otorgar (o denegar) acceso a los servidores. Los servidores de un puerto específico pueden limitarse al uso de un ancho de banda, mientras que otros pueden utilizar un ancho de banda adicional mientras esté disponible.

    Nota:
    Dispatcher realiza un seguimiento del ancho de banda midiendo el tráfico del cliente, como "acks" de datos, que circulan hacia un servidor. Si por alguna razón Dispatcher no detecta este tráfico, al utilizar las reglas de ancho de banda los resultados son imprevisibles.

    Regla de toda la métrica

    Este tipo de regla sólo está disponible en el componente Site Selector.

    Para la regla de toda la métrica, elija una métrica del sistema (cpuload, memload, o su propio script de métrica de sistema personalizado) y el Site Selector compara el valor de métrica del sistema (devuelto por el agente de Metric Server que reside en cada servidor con equilibrio de carga) con el inicio y el final del rango que se especifica en la regla. El valor de métrica del sistema actual para todos los servidores del conjunto de servidores debe estar dentro del rango para que se active la regla.

    Nota:
    El script de métrica de sistema elegido debe estar en cada uno de los servidores con equilibrio de carga.

    A continuación se muestra un ejemplo de adición a la configuración de una regla de toda la métrica:

    sscontrol rule add dnsload.com:allrule1 type metricall 
      metricname cpuload beginrange 0 endrange 100
     
    

    Regla de media de la métrica

    Este tipo de regla sólo está disponible en el componente Site Selector.

    Para la regla de media de la métrica, elija una métrica del sistema (cpuload, memload, o su propio script de métrica de sistema personalizado) y el Site Selector compara el valor de métrica del sistema (devuelto por el agente de Metric Server que reside en cada servidor con equilibrio de carga) con el inicio y el final del rango que se especifica en la regla. La media de los valores de métrica del sistema actuales para todos los servidores del conjunto de servidores debe estar dentro del rango para que se active la regla.

    Nota:
    El script de métrica de sistema elegido debe estar en cada uno de los servidores con equilibrio de carga.

    A continuación se muestra un ejemplo de adición a la configuración de una regla de media de la métrica:

    sscontrol rule add dnsload.com:avgrule1 type metricavg 
      metricname cpuload beginrange 0 endrange 100
     
    

    Utilización de reglas que son siempre ciertas

    Este tipo de regla está disponible en el componente Dispatcher, CBR o Site Selector.

    Puede crearse una regla que sea "siempre cierta." Dicha regla siempre estará seleccionada, a menos que los servidores asociados estén inactivos. Por esta razón, habitualmente debe tener una prioridad más baja que las otras reglas.

    También puede tener varias reglas "siempre cierta", con un conjunto de servidores asociado a cada una de ellas. Se selecciona la primera regla true que tenga un servidor disponible. Por ejemplo, suponga que tiene seis servidores. Desea que dos de ellos controlen el tráfico en todas las circunstancias, a menos los dos estén inactivos. Si los dos primeros servidores están inactivos, se recomienda disponer de un segundo conjunto de servidores que controle el tráfico. Si los cuatro servidores están inactivos, se utilizarán los dos últimos servidores para manejar el tráfico. Puede establecer hasta tres reglas "siempre cierta". Así pues siempre se seleccionará el primer conjunto de servidores siempre y cuando haya uno activo como mínimo. Si los dos están inactivos, se optará por uno del segundo conjunto y así sucesivamente.

    Otro ejemplo sería si deseara una regla "siempre cierta" para asegurarse de que no se atenderá a los clientes entrantes si estos no coinciden con ninguna de las reglas establecidas. Puede crear una regla utilizando el mandato dscontrol rule como la siguiente:

    dscontrol rule add 130.40.52.153:80:jamais type true priority 100
    

    Entonces no añadiría ningún servidor a la regla, lo que provocaría que los paquetes de clientes se dejaran sin respuesta.

    Nota:
    Al crear una regla siempre cierta no es necesario establecer un inicio de rango ni un final de rango.

    Puede definir más de una regla "siempre cierta" y, a partir de ahí, ajustar cuál se ejecuta cambiando los niveles de prioridad.

    Utilización de reglas basadas en el contenido de peticiones

    Este tipo de regla está disponible en el componente CBR o el componente Dispatcher (cuando se utiliza el método de reenvío CBR de Dispatcher).

    Se recomienda utilizar reglas de tipo de contenido para enviar peticiones a conjuntos de servidores establecidos específicamente para manejar algún subconjunto del tráfico del sitio. Por ejemplo, si desea utilizar un conjunto de servidores para manejar todas las peticiones cgi-bin, otro conjunto para manejar todas las peticiones de audio de modalidad continua y un tercer conjunto para manejar las demás peticiones. Añada una regla con un patrón que coincida con la vía de acceso al directorio cgi-bin, otra que coincida con el tipo de archivo de los archivos de audio de modalidad continua y una tercera regla siempre cierta para manejar el resto del tráfico. A continuación, añada los servidores adecuados a cada una de las reglas.

    Importante: si desea ver ejemplos y casos de cómo utilizar la regla de contenido y la sintaxis de patrón válida para la regla de contenido, consulte el Apéndice B. Sintaxis de la regla de contenido (patrón).

    Alteración temporal de la afinidad entre puertos

    Con la alteración temporal de afinidad entre puertos, puede alterar temporalmente la permanencia en memoria de un puerto para un servidor específico. Por ejemplo, si utiliza una regla para limitar la cantidad de conexiones para cada servidor de aplicaciones y tiene un servidor de desbordamiento con una regla siempre cierta que indica "por favor, inténtelo más adelante" para dicha aplicación. El puerto tiene un valor de permanencia en memoria de 25 minutos, por lo tanto no desea que el cliente sea permanente en memoria para dicho servidor. Con la alteración temporal de afinidad entre puertos, puede cambiar el servidor de desbordamiento para alterar temporalmente la afinidad que normalmente está asociada a dicho puerto. La próxima vez que el cliente emite una petición al clúster, se equilibra su carga con el mejor servidor de aplicaciones disponible, no el servidor de desbordamiento.

    Consulte el apartado dscontrol server -- configurar servidores, para obtener información detallada sobre la sintaxis del mandato de alteración temporal de afinidad entre puertos, utilizando la opción sticky del servidor.

    Adición de reglas a la configuración

    Para añadir reglas mediante el mandato dscontrol rule add, edite el archivo de configuración de ejemplo o utilice la interfaz gráfica de usuario (GUI). Puede añadir una o más reglas a cada puerto definido.

    Es un proceso de dos pasos: añadir la regla y definir qué servidores la atenderán si la regla es cierta. Por ejemplo, el administrador del sistema desea realizar un seguimiento del uso de los servidores proxy que realiza cada una de las secciones del sitio. Se han otorgado direcciones IP a cada sección. Cree el primer conjunto de reglas basándose en la dirección IP de cliente para separar la carga de cada sección:

    dscontrol rule add 130.40.52.153:80:div1 type ip b 9.1.0.0 e 9.1.255.255
    dscontrol rule add 130.40.52.153:80:div2 type ip b 9.2.0.0 e 9.2.255.255
    dscontrol rule add 130.40.52.153:80:div3 type ip b 9.3.0.0 e 9.3.255.255
    

    A continuación, añada un servidor distinto para cada regla y mida la carga en cada uno de los servidores para poder facturar correctamente a la sección por los servicios que está utilizando. Por ejemplo:

    dscontrol rule useserver 130.40.52.153:80:div1 207.72.33.45
    dscontrol rule useserver 130.40.52.153:80:div2 207.72.33.63
    dscontrol rule useserver 130.40.52.153:80:div3 207.72.33.47
    

    Opción de evaluación del servidor para reglas

    La opción de evaluación del servidor sólo está disponible en el componente Dispatcher.

    En el mandato dscontrol rule hay una opción de evaluación del servidor para reglas. Utilice la opción evaluate para optar por evaluar la condición de la regla en todos los servidores del puerto o evaluar la condición de la regla sólo en los servidores incluidos en la regla. (En versiones anteriores de Load Balancer, sólo se podía medir la condición de cada regla en todos los servidores del puerto).

    Notas:

    1. La opción de evaluación del servidor sólo es válida para las reglas que toman las decisiones basándose en las características de los servidores: regla de total de conexiones (por segundo), regla de conexiones activas y regla de ancho de banda reservado.

    2. La regla de tipo "conexión" tiene una opción de evaluación adicional que puede elegir: upserversonrule. Consulte el apartado Utilización de reglas basadas en las conexiones por segundo para obtener más información.

    A continuación se muestran ejemplos de la adición o definición de la opción de evaluación en una regla de ancho de banda reservado:

    dscontrol rule add 9.22.21.3:80:rbweval type reservedbandwidth evaluate nivel 
    dscontrol rule set 9.22.21.3:80:rbweval evaluate nivel
    

    El nivel de la evaluación puede establecerse en port, rule o upserversonrule. El valor predeterminado es port.

    Evaluar servidores a los que se aplica la regla

    La opción de medir la condición de la regla en todos los servidores a los que se aplica le permite configurar dos reglas con las siguientes características:

    El resultado es que cuando el tráfico excede el umbral de los servidores a los que se aplica la primera regla, el tráfico se envía al servidor "sitio ocupado" al que se aplica la segunda regla. Cuando el tráfico es inferior al umbral de los servidores a los que se aplica la primera regla, el nuevo tráfico vuelve a dirigirse otra vez a los servidores a los que se aplica la primera regla.

    Evaluar servidores en el puerto

    Si utiliza las dos reglas del ejemplo anterior, si establece la opción de evaluación en port para la primera regla (evaluar condición de la regla en todos los servidores del puerto), cuando el tráfico excede el umbral de dicha regla, se envía al servidor "sitio ocupado" asociado a la segunda regla.

    La primera regla mide todo el tráfico del servidor (incluido el servidor "sitio ocupado") en el puerto para determinar si el tráfico excede el umbral. Cuando la congestión disminuye en todos los servidores asociados a la primera regla, puede producirse un resultado involuntario en el que el tráfico sigue dirigiéndose al servidor "sitio ocupado" porque el tráfico en el puerto todavía supera el umbral de la primera regla.


    Cómo funciona la característica de afinidad para Load Balancer

    Para los componentes Dispatcher y CBR: habilite la característica de afinidad cuando configure un puerto de clúster para que sea permanente en memoria. Si configura el puerto de un clúster de modo que sea permanente en memoria, permite que las peticiones de cliente subsiguientes se direccionen al mismo servidor. Esto se lleva a cabo estableciendo stickytime en el nivel de ejecutor, clúster o puerto en algunos segundos. Esta característica se inhabilita estableciendo el tiempo de permanencia en memoria (stickytime) en el valor cero.

    Si está habilitando la afinidad entre puertos, los valores de tiempo de permanencia en memoria (stickytime) de los puertos compartidos deben ser valores iguales (no cero). Consulte el apartado Afinidad entre puertos para obtener más información.

    Para el componente Site Selector: habilite la característica de afinidad cuando configure un nombre de sitio para que sea permanente en memoria. Si configura un nombre de sitio para que sea permanente en memoria, el cliente podrá utilizar el mismo servidor para varias peticiones del servicio de nombres. Esto se lleva a cabo estableciendo stickytime del nombre del sitio en algunos segundos. Esta característica se inhabilita estableciendo el tiempo de permanencia en memoria (stickytime) en el valor cero.

    El período de permanencia en memoria es el intervalo entre el cierre de una conexión y la apertura de una conexión nueva, durante el cual un cliente se volverá a enviar al mismo servidor utilizado durante la primera conexión. Cuando caduca el tiempo de permanencia en memoria, el cliente puede enviarse a un servidor distinto del primero. El valor de tiempo de permanencia en memoria para un servidor se configura mediante los mandatos dscontrol, executor, port o cluster.

    Comportamiento cuando la afinidad está inhabilitada

    Cuando la característica de afinidad se inhabilita, siempre que se recibe una nueva conexión TCP de un cliente, Load Balancer elige el servidor más adecuado para dicho momento y le remite los paquetes. Si llega una conexión subsiguiente procedente del mismo cliente, Load Balancer la trata como si fuera una nueva conexión no relacionada y vuelve a elegir el servidor más apropiado para dicho momento.

    Comportamiento cuando la afinidad está habilitada

    Con la característica de afinidad habilitada, si se recibe una petición subsiguiente del mismo cliente, la petición se dirige al mismo servidor.

    Con el tiempo, el cliente terminará el envío de transacciones y el registro de afinidad desaparecerá. De ahí el significado de "tiempo de permanencia en memoria." Cada registro de afinidad existe durante el "tiempo de permanencia en memoria" en segundos. Cuando se reciben conexiones subsiguientes dentro del tiempo de permanencia en memoria, el registro de afinidad seguirá siendo válido y la petición se dirigirá al mismo servidor. Si no se recibe una conexión subsiguiente dentro del tiempo de permanencia en memoria, el registro se depura; una conexión que se recibe después de dicho tiempo tendrá un nuevo servidor seleccionado para la misma.

    El mandato server down (dscontrol server down) se utiliza para poner un servidor fuera de línea. El servidor pasará a estar inactivo una vez que caduque el valor de tiempo de permanencia en memoria (stickytime).

    Afinidad entre puertos

    La afinidad entre puertos sólo se aplica a los métodos de reenvío MAC y NAT/NATP del componente Dispatcher.

    La afinidad entre puertos es la característica de permanencia en memoria que se ha ampliado para cubrir varios puertos. Por ejemplo, si una petición de cliente se recibe primero en un puerto y la siguiente se recibe en otro puerto, la afinidad entre puertos permite a Dispatcher enviar la petición de cliente al mismo servidor. Para utilizar esta característica, los puertos deben:

    Más de un puerto puede enlazar con el mismo crossport. Cuando llegan conexiones subsiguientes del mismo cliente al mismo puerto o a un puerto compartido, se accederá al mismo servidor. A continuación se muestra un ejemplo de cómo configurar varios puertos con una afinidad entre puertos para el puerto 10:

    dscontrol port set clúster:20 crossport 10
    dscontrol port set clúster:30 crossport 10
    dscontrol port set clúster:40 crossport 10
    

    Una vez que se ha establecido la afinidad entre puertos, tiene la flexibilidad de modificar el valor de tiempo de permanencia en memoria para el puerto. No obstante, se recomienda cambiar los valores de tiempo de permanencia en memoria para todos los puertos compartidos por el mismo valor; de lo contrario, pueden producirse resultados inesperados.

    Para eliminar la afinidad entre puertos, establezca el valor de crossport de nuevo en el número de su propio puerto. Consulte el apartado dscontrol port -- configurar puertos, para obtener información detallada sobre la sintaxis de mandato para la opción crossport.

    Máscara de dirección de afinidad (stickymask)

    La máscara de dirección de afinidad sólo se aplica al componente Dispatcher.

    La máscara de dirección de afinidad es una mejora de la característica de permanencia en memoria para agrupar clientes basándose en las direcciones de subred comunes. Si especifica stickymask en el mandato dscontrol port se podrán ocultar los bits de orden superior comunes de la dirección IP de 32 bits. Si se configura esta característica, la primera vez que una petición de cliente realiza una conexión con el puerto, todas las peticiones subsiguientes procedentes de clientes con la misma dirección de subred (representada por la parte de la dirección que está enmascarada) se dirigirán al mismo servidor.

    Nota:
    Para poder habilitar skickymask, el valor stickytime debe ser un valor no cero.

    Por ejemplo, si desea que todas las peticiones de clientes entrantes con la misma dirección de Clase A de red se dirijan al mismo servidor, establezca el valor de stickymask en 8 (bits) para el puerto. Para agrupar peticiones de clientes con la misma dirección de Clase B de red , establezca el valor de stickymask en 16 (bits). Para agrupar peticiones de clientes con la misma dirección de Clase C de red , establezca el valor de stickymask en 24 (bits).

    Para obtener los mejores resultados, establezca el valor stickymask la primera vez que inicie Load Balancer. Si cambia el valor de stickymask de forma dinámica, los resultados pueden ser imprevisibles.

    Interacción con afinidad entre puertos: si está habilitando la afinidad entre puertos, los valores de stickymask de los puertos compartidos deben ser los mismos. Consulte el apartado Afinidad entre puertos para obtener más información.

    Para habilitar la máscara de dirección de afinidad, emita un mandato dscontrol port parecido al siguiente:

    dscontrol port set clúster:puerto stickytime 10 stickymask 8
    

    Los posibles valores de stickymask son 8, 16, 24 y 32. El valor 8 especifica los 8 primeros bits de orden superior de la dirección IP (dirección de Clase A de red) se ocultará. El valor 16 especifica los 16 primeros bits de orden superior de la dirección IP (dirección de Clase B de red) se ocultará. El valor 24 especifica los 24 primeros bits de orden superior de la dirección IP (dirección de Clase C de red) se ocultará. Si especifica el valor 32, está ocultando toda la dirección IP que inhabilita de hecho la característica de máscara de dirección de afinidad. El valor predeterminado de stickymask es 32.

    Consulte el apartado dscontrol port -- configurar puertos, para obtener información detallada sobre la sintaxis de mandato para stickymask (característica de máscara de dirección de afinidad).

    Desactivar temporalmente el manejo de conexiones de servidor

    Desactivar temporalmente el manejo se aplica a Dispatcher y componentes CBR.

    Para eliminar un servidor de la configuración de Load Balancer por cualquier razón (actualizaciones, ampliaciones, servicio, etc.), puede utilizar el mandato dscontrol manager quiesce. El submandato quiesce permite que las conexiones existentes finalicen (sin ser atendidas) y sólo remite las nuevas conexiones posteriores del cliente al servidor desactivado temporalmente si la conexión se ha designado como de permanencia en memoria y el tiempo de permanencia en memoria no ha caducado. El submandato quiesce no deja que se realicen otras conexiones nuevas al servidor.

    Desactivar temporalmente el manejo de conexiones de permanencia en memoria

    Utilice la opción quiesce "now" si ha fijado el tiempo de permanencia en memoria y desea enviar nuevas conexiones a otro servidor (en lugar de enviarlas al servidor desactivado temporalmente) antes de que caduque el tiempo de espera. A continuación se muestra un ejemplo de utilización de la opción now para desactivar temporalmente el servidor 9.40.25.67:

    dscontrol manager quiesce 9.40.25.67 now
    

    La opción now determina cómo se manejarán las conexiones de permanencia en memoria:


    Opción de afinidad de la regla basada en el contenido de la petición de cliente

    Puede especificar los siguientes tipos de afinidad en el mandato dscontrol rule:

    El valor predeterminado para la opción affinity es "none." La opción stickytime en el mandato port debe ser cero (no habilitado) para poder establecer la opción affinity en el mandato rule para el cookie activo, cookie pasivo o URI. Cuando se establece la función de afinidad en la regla, no se puede habilitar el tiempo de permanencia en memoria en el puerto.

    Afinidad de cookies activos

    La función de afinidad de cookies activos sólo se aplica al componente CBR.

    Proporciona una forma para hacer que los clientes sean "permanentes" para un servidor particular. Esta función se habilita estableciendo la opción stickytime de una regla en un número positivo y estableciendo la opción affinity en "activecookie." Esto puede llevarse a cabo cuando se añade la regla o se utiliza el mandato rule set. Consulte el apartado dscontrol rule -- configurar reglas, para obtener información detallada sobre la sintaxis del mandato.

    Cuando se habilita una regla para la afinidad de cookies activos, se equilibra la carga de nuevas peticiones de clientes utilizando algoritmos CBR estándar, mientras que las peticiones sucesivas del mismo cliente se envían al servidor elegido al principio. El servidor elegido se almacena en forma de cookie en la respuesta al cliente. Siempre y cuando las peticiones futuras del cliente contengan el cookie y lleguen dentro del intervalo de permanencia en memoria, el cliente mantendrá afinidad con el servidor inicial.

    La afinidad de cookies activos se utiliza para asegurar que un cliente siga realizando el equilibrio de carga en el mismo servidor durante un periodo de tiempo. Esto se lleva a cabo enviando un cookie para que se almacene en el navegador de los clientes. El cookie contiene los valores clúster:puerto:regla que se utilizaron para tomar una decisión, el servidor en el que se realizó el equilibrio de carga y una indicación de la hora del tiempo de espera excedido para cuando la afinidad ya no es válida. El cookie tiene el siguiente formato: IBMCBR=clúster:puerto: regla+servidor-hora! La información clúster:puerto:regla y servidor está codificada para que no muestre la configuración de CBR.

    Cómo funciona la afinidad de cookies activos

    Siempre que una regla indique que tiene activada la afinidad de cookies activos, se examinará el cookie enviado por el cliente.

    Este nuevo cookie se insertará en las cabeceras que se devuelven al cliente, y si el navegador del cliente se configura de forma que acepte cookies, devolverá peticiones subsiguientes.

    Cada instancia de afinidad del cookie tiene una longitud de 65 bytes y termina con un signo de exclamación. Como resultado, un cookie de 4096 bytes puede mantener aproximadamente 60 reglas de cookies activos individuales por dominio. Si el cookie se rellena completamente, se depuran todas las instancias de afinidad caducadas. Si todas las instancias siguen siendo válidas, se elimina la más antigua y se añaden las nuevas instancias para la regla actual.

    Nota:
    CBR sustituirá todas las apariciones de los cookies de IBMCBR con el formato antiguo a medida que aparezcan en el proxy.

    La opción affinity de cookies activos, para el mandato rule, sólo puede establecerse en activecookie si la opción port stickytime es cero (no habilitada). Una vez que la afinidad de cookies activos está activa en una regla, no se puede habilitar el tiempo de permanencia en memoria en el puerto.

    Cómo habilitar la afinidad de cookies activos

    Para habilitar la afinidad de cookies activos para una regla concreta, utilice el mandato rule set:

    rule set clúster:puerto:regla stickytime 60
    rule set clúster:puerto:regla affinity activecookie
    

    Por qué se utiliza la afinidad de cookies activos

    Hacer que una regla sea permanente en memoria normalmente se utiliza para CGI o servlets que almacenan estado de cliente en el servidor. El estado lo identifica un ID de cookie (estos son cookies de servidor). El estado del cliente sólo está en el servidor seleccionado, de modo que el cliente necesita el cookie de dicho servidor para mantener dicho estado entre peticiones.

    Alteración temporal de la hora de caducidad de la afinidad de cookies activos

    La afinidad de cookies activos tiene una hora de caducidad del servidor actual predeterminado, más el intervalo de tiempo de permanencia en memoria, más veinticuatro horas. Si las horas de los sistemas clientes (aquellos que envían peticiones a la máquina CBR) son incorrectas (por ejemplo, van un día por delante de la hora del servidor), los sistemas de estos clientes ignorarán los cookies de CBR porque el sistema dará por supuesto que los cookies ya han caducado. Para fijar una hora de caducidad posterior, modifique el script cbrserver. En el archivo script, edite la línea javaw añadiendo el siguiente parámetro después de LB_SERVER_KEYS: -DCOOKIEEXPIREINTERVAL=X donde X es el número de días que desea añadir a la hora de caducidad.

    En sistemas AIX, Solaris y Linux, el archivo cbrserver está en el directorio /usr/bin.

    En sistemas Windows, el archivo cbrserver está en el directorio \winnt\system32.

    Afinidad de cookies pasivos

    La afinidad de cookies pasivos se aplica al método de reenvío de CBR (Content Based Routing) del componente Dispatcher y al componente CBR. Consulte el apartado Direccionamiento basado en contenido de Dispatcher (método de reenvío cbr) para obtener información sobre cómo configurar el método de reenvío cbr de Dispatcher.

    La afinidad de cookies pasivos proporciona una forma para que los clientes sean permanentes en memoria para un servidor concreto. Cuando habilita la afinidad de una regla para "passivecookie", la afinidad de cookies pasivos le permite equilibrar la carga del tráfico Web con afinidad al mismo servidor, basándose en cookies que se identifican a sí mismos generados por los servidores. La afinidad de cookies pasivos se configura en el nivel de reglas.

    Cuando se activa la regla, si la afinidad de cookies pasivos está habilitada, Load Balancer seleccionará el servidor basándose en el nombre de cookie de la cabecera HTTP de la petición del cliente. Load Balancer empieza a comparar el nombre de cookie de la cabecera HTTP del cliente con el valor de cookie configurado para cada servidor.

    La primera vez que Load Balancer encuentre un servidor cuyo valor de cookie contenga el nombre de cookie del cliente, Load Balancer selecciona dicho servidor para la petición.

    Nota:
    Load Balancer proporciona esta flexibilidad para manejar casos en los que el servidor podría generar un valor de cookie al que se ha añadido una parte estática a una parte variable. Por ejemplo, el valor de cookie del servidor podría ser el nombre de servidor (un valor estático) al que se ha añadido una indicación de la hora (un valor variable).

    Si el nombre de cookie en la petición de cliente no se encuentra o no coincide con ningún contenido de los valores de cookie de los servidores, el servidor se selecciona utilizando la selección del servidor existente o la técnica de turno rotativo sopesado.

    Para configurar afinidad de cookies pasivos:

    La opción affinity de cookies pasivos, para el mandato rule, sólo puede establecerse en passivecookie si la opción port stickytime es cero (no habilitada). Una vez que la afinidad de cookies pasivos está activa en una regla, no se puede habilitar el tiempo de permanencia en memoria en el puerto.

    Afinidad de URI

    La afinidad de URI se aplica al método de reenvío CBR de Dispatcher y el componente CBR. Consulte el apartado Direccionamiento basado en contenido de Dispatcher (método de reenvío cbr) para obtener información sobre cómo configurar el método de reenvío cbr.

    La afinidad de URI permite equilibrar la carga del tráfico Web para servidores Caching Proxy, lo que permitirá que el contenido exclusivo se almacene en la memoria caché de cada servidor individual. Como resultado, se aumentará eficazmente la capacidad de la memoria caché del sitio y se eliminará el almacenamiento en caché redundante de contenido en varias máquinas. Configure la afinidad de URI en el nivel de reglas. Una vez que la regla se activa, la afinidad de URI se habilita y el mismo conjunto de servidores están activos y responden, Load Balancer remitirá nuevas peticiones de cliente entrantes con el mismo URI al mismo servidor.

    Normalmente, Load Balancer puede distribuir peticiones a varios servidores que sirven contenido idéntico. Al utilizar Load Balancer con un grupo de servidores de memoria caché, llegará un momento en que el contenido al que se suele acceder habitualmente estará almacenado en la memoria caché de todos los servidores. Esto da soporte a una carga muy alta de clientes duplicando en varias máquinas el contenido idéntico almacenado en caché. Esto es de gran utilidad para sitios Web de alto volumen.

    Sin embargo, si el sitio Web da soporte a un volumen moderado de tráfico de cliente para un contenido muy diverso, y si prefiere tener una memoria caché más grande a lo largo de varios servidores, el sitio tendrá un mejor rendimiento si cada servidor de caché incluye contenido exclusivo y Load Balancer sólo distribuye la petición al servidor de caché con dicho contenido.

    Con la afinidad de URI, Load Balancer le permite distribuir el contenido almacenado en memoria caché a servidores individuales y elimina el almacenamiento en caché redundante del contenido en varias máquinas. Con esta mejora aumenta el rendimiento de sitios de servidores de contenido diverso que utilizan servidores Caching Proxy. Se enviarán peticiones idénticas al mismo servidor y de esta forma sólo se almacenará en memoria caché el contenido en servidores individuales. El tamaño real de la memoria caché irá aumentando con cada nueva máquina servidor añadida a la agrupación.

    Para configurar la afinidad de URI:


    Configurar soporte de Dispatcher de área amplia

    Esta característica sólo está disponible para el componente Dispatcher.

    Si no utiliza el soporte de área amplia de Dispatcher y no utiliza el método de reenvío NAT de Dispatcher, una configuración de Dispatcher requiere que la máquina Dispatcher y todos sus servidores estén conectados al mismo segmento de LAN (consulte la Figura 35). La petición de un cliente llega a la máquina Dispatcher y se envía al servidor. Desde el servidor la respuesta se envía directamente al cliente.

    Figura 35. Ejemplo de una configuración que consta de un único segmento LAN

    Único segmento LAN

    La característica Dispatcher de área amplia añade soporte para servidores que están en otros sitios, llamados servidores remotos (consulte la Figura 36). Si no se da soporte a GRE en el sitio remoto y no está utilizando el método de reenvío NAT de Dispatcher, el sitio remoto debe constar de una máquina Dispatcher remota (Dispatcher 2) y de sus servidores conectados localmente (ServidorG, ServidorH y ServidorI). Se transferirán los paquetes del cliente desde Internet a la máquina Dispatcher inicial. Desde la máquina Dispatcher inicial, se transferirá entonces el paquete a una máquina Dispatcher remota geográficamente y a uno de sus servidores conectados localmente.

    Todas las máquinas Dispatcher (local y remota) deben estar en el mismo tipo de sistema operativo y plataforma para ejecutar configuraciones de área amplia.

    Figura 36. Ejemplo de configuración mediante servidores locales y remotos

    Servidores locales y remotos

    Esto permite que una dirección de clúster dé soporte a todas las peticiones de cliente mundiales a la vez que distribuye la carga por servidores situados en todo el mundo.

    La máquina Dispatcher que recibe inicialmente el paquete aún puede tener conectados servidores locales y puede distribuir la carga entre sus servidores locales y los servidores remotos.

    Sintaxis de mandatos

    Para configurar el soporte del área amplia:

    1. Añada los servidores. Al añadir un servidor a un sistema Dispatcher, debe definir si el servidor es local o remoto (vea arriba). Para añadir un servidor y definirlo como local, emita el mandato dscontrol server add sin especificar un direccionador. Es el valor predeterminado. Para definir el servidor como remoto, debe especificar el direccionador a través del que Dispatcher debe enviar el paquete para llegar al servidor remoto. El servidor debe ser otro sistema Dispatcher y la dirección del servidor debe ser una dirección de no reenvío del sistema Dispatcher. Por ejemplo, en la Figura 37, si añade LB 2 como servidor remoto bajo LB 1, debe definir direccionador 1 como la dirección del direccionador. Sintaxis general:
      dscontrol server add clúster:puerto:servidor router dirección
      

      Para obtener más información sobre la palabra clave router, consulte el apartado dscontrol server -- configurar servidores.

    2. Configure los alias. En la primera máquina Dispatcher (donde llega la petición de cliente desde Internet), debe crearse un alias de la dirección de clúster con el mandato executor configure. (En sistemas Linux o UNIX, puede utilizar el mandato executor configure o ifconfig). Sin embargo, en las máquinas Dispatcher remotas la dirección del clúster no tienen ningún alias asociado a la tarjeta de interfaz de red.

    Utilización de asesores remotos con el soporte de área amplia de Dispatcher

    En Dispatchers de punto de entrada:

    Los Dispatchers de punto de entrada que se ejecutan en plataformas AIX, Linux (con GRE) o Solaris mostrarán correctamente cargas del asesor de visualización. Otras plataformas tendrán que confiar en el equilibrio de carga mediante el algoritmo de turno rotativo o utilizar los métodos de reenvío nat/cbr de Dispatcher en lugar de la red de área amplia.

    Sistemas AIX

    Sistemas HP-UX

    Sistemas Linux

    Sistemas Solaris

    Sistemas Windows

    En sistemas Dispatcher remotos: realice los siguientes pasos de configuración para cada dirección de clúster remoto. Para una configuración de alta disponibilidad en la ubicación del sistema Dispatcher remoto, debe llevar a cabo estos pasos en las dos máquinas.

    Sistemas AIX

    Sistemas HP-UX, Linux, Solaris y Windows

    Ejemplo de configuración

    Figura 37. Configuración del ejemplo de área amplia con varios Load Balancer remotos

    Configuración de área amplia con varios Load Balancers

    Este ejemplo se aplica a la configuración que se muestra en la Figura 37.

    Aquí se muestra cómo configurar las máquinas Dispatcher para dar soporte a la dirección de clúster xebec en el puerto 80. LB1 se define como Load Balancer de "punto de entrada". Se da por supuesto una conexión Ethernet. Tenga en cuenta que LB1 tiene definidos cinco servidores: tres locales (ServidorA, ServidorB, ServidorC) y dos remotos (LB2 y LB3). Cada uno de los servidores LB2 y LB3 remotos tiene definido tres servidores locales.

    En la consola de la primera máquina Dispatcher (LB1):

    1. Inicie el ejecutor.

      dscontrol executor start

    2. Establezca la dirección de no reenvío de la máquina Dispatcher.

      dscontrol executor set nfa LB1

    3. Defina el clúster.

      dscontrol cluster add xebec

    4. Defina el puerto.

      dscontrol port add xebec:80

    5. Defina los servidores.
      1. dscontrol server add xebec:80:ServidorA
      2. dscontrol server add xebec:80:ServidorB
      3. dscontrol server add xebec:80:ServidorC
      4. dscontrol server add xebec:80:LB2 router Direccionador1
      5. dscontrol server add xebec:80:LB3 router Direccionador1
    6. Configure la dirección de clúster.

      dscontrol executor configure xebec

    En la consola de la segunda máquina Dispatcher (LB2):

    1. Inicie el ejecutor.

      dscontrol executor start

    2. Establezca la dirección de no reenvío de la máquina Dispatcher.

      dscontrol executor set nfa LB2

    3. Defina el clúster.

      dscontrol cluster add xebec

    4. Defina el puerto.

      dscontrol port add xebec:80

    5. Defina los servidores.
      1. dscontrol server add xebec:80:ServidorD
      2. dscontrol server add xebec:80:ServidorE
      3. dscontrol server add xebec:80:ServidorF

    En la consola de la tercera máquina Dispatcher (LB3):

    1. Inicie el ejecutor.

      dscontrol executor start

    2. Establezca la dirección de no reenvío de la máquina Dispatcher.

      dscontrol executor set nfa LB3

    3. Defina el clúster.

      dscontrol cluster add xebec

    4. Defina el puerto.

      dscontrol port add xebec:80

    5. Defina los servidores.
      1. dscontrol server add xebec:80:ServidorG
      2. dscontrol server add xebec:80:ServidorH
      3. dscontrol server add xebec:80:ServidorI

    Notas

    1. En todos los servidores (A-I), cree el alias de la dirección de clúster con el bucle de retorno.
    2. Los clústeres y los puertos se añaden con dscontrol a todas las máquinas Dispatcher implicadas: el sistema Dispatcher de punto de entrada y todas las máquinas remotas.
    3. Consulte el apartado Utilización de asesores remotos con el soporte de área amplia de Dispatcher para obtener ayuda sobre cómo utilizar asesores remotos con soporte de área amplia.
    4. El soporte de área amplia no permite utilizar bucles de direccionamiento infinito. (Si una máquina Dispatcher recibe un paquete desde otra máquina Dispatcher, no se reenviará a una tercera máquina Dispatcher). El área amplia sólo da soporte a un nivel de sistemas remotos.
    5. El área amplia da soporte a UDP y a TCP.
    6. El área amplia funciona junto con alta disponibilidad: se puede hacer una copia de seguridad de cada sistema Dispatcher en una máquina en espera adyacente (en el mismo segmento LAN).
    7. El gestor y los asesores funcionan con red de área amplia y, si se utiliza, debe iniciarse en todas las máquinas Dispatcher implicadas.
    8. Load Balancer da soporte a WAN sólo en sistemas operativos iguales.

    Soporte de GRE (Encapsulamiento genérico de direccionamiento)

    El encapsulamiento genérico de direccionamiento (GRE) es un Internet Protocolo especificado en RFC 1701 y RFC 1702. Si utiliza GRE, Load Balancer puede encapsular paquetes IP del cliente dentro de paquetes IP/GRE y remitirlos a plataformas de servidor como OS/390 que permiten el uso de GRE. El soporte de GRE permite al componente Dispatcher equilibrar la carga de paquetes en varias direcciones de servidores asociadas a una dirección MAC.

    Load Balancer implementa GRE como parte de su característica WAN. Esto permite que Load Balancer proporcione equilibrio de carga de área local directamente a todos los sistemas de servidor que puedan abrir los paquetes GRE. No es necesario que Load Balancer esté instado en el sitio remoto, si los servidores remotos dan soporte a paquetes GRE encapsulados. Load Balancer encapsula paquetes WAN con el campo clave GRE establecido en un valor decimal 3735928559.

    Figura 38. Configuración del ejemplo de área amplia con una plataforma de servidor que da soporte a GRE

    Configuración de área amplia con una plataforma de servidor permite GRE

    En este ejemplo (Figura 38), para añadir el ServidorD remoto, que da soporte a GRE, defínalo dentro de la configuración de Load Balancer como si estuviera definiendo un servidor de WAN en la jerarquía clúster:puerto:servidor:

    dscontrol server add clúster:puerto:ServidorD router Direccionador

    En sistemas Linux, configuración del excapsulamiento de GRE para WAN

    Los sistemas Linux tienen la capacidad nativa para excapsular GRE que permite a Load Balancer equilibrar la carga en las imágenes del servidor Linux para s/390, donde muchas imágenes de servidor comparten una dirección MAC. Esto permite que Load Balancer de punto de entrada equilibre la carga directamente en servidores WAN de Linux, sin pasar a través de un sistema Load Balancer en el sitio remoto. También permite que los asesores del sistema Load Balancer de punto de entrada operen directamente con cada servidor remoto.

    En el sistema Load Balancer de punto de entrada, configúrelo para WAN tal como se describe.

    Para configurar cada servidor del programa de fondo Linux, emita los siguientes mandatos como usuario root. (Estos mandatos se pueden añadir al recurso de inicio del sistema para que los cambios se mantengan en los rearranques).

    # modprobe ip_gre
    # ip tunnel add gre-nd mode gre ikey 3735928559 
    # ip link set gre-nd up
    # ip addr add dirección_clúster dev gre-nd
     
    
    Nota:
    El servidor Linux configurado utilizando estas instrucciones no puede estar en el mismo elemento físico que el sistema Load Balancer de punto de entrada. Esto se debe a que el servidor Linux responderá a las peticiones "ARP who-has" para la dirección del clúster, lo que provocará que un estado de competición que llevará a un posible "corto circuito" en el que todo el tráfico de la dirección del clúster sólo se dirige al ganador de la competición ARP.

    Utilización del enlace explícito

    En general, las funciones de equilibrio de carga de Dispatcher funcionan independientemente del contenido de los sitios en los que se utiliza el producto. No obstante, existe un área en la que el contenido del sitio puede ser importante y donde las decisiones que se han tomado respecto al contenido pueden tener un impacto significativo en la eficacia de Dispatcher. Se trata del área de direccionamiento de enlaces.

    Si las páginas especifican enlaces que apuntan a servidores individuales del sitio, en realidad está forzando a un cliente a que vaya a una máquina específica y, por lo tanto, omitirá cualquier función de equilibrio de carga que podría estar aplicándose. Por esta razón, utilice siempre la dirección de Dispatcher en todos los enlaces contenidos en las páginas. Tenga en cuenta que es posible que el tipo de direccionamiento utilizado no sea siempre evidente, si el sitio utiliza programación automatizada que crea código HTML de forma dinámica. Para maximizar el equilibrio de carga, debe conocer bien todo el direccionamiento explícito y evitarlo cuando sea posible.


    Utilización de una configuración de red privada

    Puede configurar las máquinas Dispatcher y del servidor TCP utilizando una red privada. Esta configuración puede reducir el conflicto sobre la red pública o externa que puede afectar al rendimiento.

    En sistemas AIX, esta configuración también puede beneficiarse de las velocidades rápidas del conmutador de alto rendimiento de SP(TM), si está ejecutando las máquinas Dispatcher y del servidor TCP en nodos que están en una trama SP.

    Para crear una red privada, cada máquina debe tener cómo mínimo dos tarjetas de LAN y una de las tarjetas está conectada a la red privada. También debe configurar la segunda tarjeta de LAN en una subred distinta. La máquina Dispatcher enviará las peticiones de cliente a las máquinas servidor TCP a través de la red privada.

    Sistemas Windows: configure la dirección de no reenvío con el mandato executor configure.

    Los servidores añadidos con el mandato dscontrol server add deben añadirse utilizando las direcciones de la red privada; por ejemplo, si nos remitimos al ejemplo del servidor Apple en la Figura 39, el mandato debería codificarse en la forma:

    dscontrol server add dirección_clúster:80:10.0.0.1

    no

    dscontrol server add dirección_clúster:80:9.67.131.18

    Si utiliza Site Selector para proporcionar información de carga en Dispatcher, debe configurar Site Selector de modo que notifique las cargas en las direcciones privadas.

    Figura 39. Ejemplo de una red privada que utiliza Dispatcher

    Red privada

    La utilización de la configuración de red privada sólo se aplica al componente Dispatcher.


    Utilizar un clúster comodín para combinar configuraciones de servidores

    La utilización de clúster comodín para combinar configuraciones de servidor sólo se aplica al componente Dispatcher.

    La palabra "comodín" hace referencia a la capacidad del clúster para emparejar varias direcciones IP (es decir, actúa como un comodín). La dirección del clúster 0.0.0.0 se utiliza para especificar un clúster comodín.

    Si tiene muchas direcciones de clúster en las que se debe equilibrar la carga y las configuraciones de puerto/servidor son idénticas en todos los clústeres, puede combinar todos los clústeres en una configuración de clúster comodín.

    Deberá configurar de forma explícita cada dirección de clúster en uno de los adaptadores de la red de la estación de trabajo de Dispatcher. Sin embargo, no debe añadir ninguna de las direcciones de clúster a la configuración de Dispatcher utilizando el mandato dscontrol cluster add.

    Únicamente añada un clúster comodín (dirección =.0.0.0) y configure los puertos y servidores como se requiere para el equilibrio de carga. Se equilibra la carga de todo el tráfico que se dirija a cualquiera de las direcciones configuradas del adaptador utilizando la configuración del clúster comodín.

    Una ventaja de este método es que, al determinar cuál es el mejor servidor al que dirigirse, se toma en cuenta el tráfico dirigido a todas las direcciones del clúster. Si un clúster recibe mucho tráfico y ha creado muchas conexiones activas en uno de los servidores, con esta información se equilibra la carga del tráfico que se dirige a otras direcciones del clúster.

    Si tiene algunas direcciones de clúster con configuraciones de puerto/servidor exclusivas y algunas con configuraciones comunes, puede combinar el clúster comodín con clústeres reales. Se debe asignar cada una de las configuraciones exclusivas a una dirección de clúster real. Todas las configuraciones comunes pueden asignarse al clúster comodín.


    Utilizar un clúster comodín para equilibrar la carga de cortafuegos

    La utilización de clúster comodín para equilibrar la carga de cortafuegos sólo se aplica al componente Dispatcher. La dirección del clúster 0.0.0.0 se utiliza para especificar un clúster comodín.

    El clúster comodín puede utilizarse para equilibrar la carga del tráfico en direcciones que no están configuradas de forma explícita en ningún adaptador de red de la estación de trabajo de Dispatcher. Para que esto funcione, Dispatcher como mínimo debe poder ver todo el tráfico en el que se va a equilibrar la carga. La estación de trabajo de Dispatcher no verá el tráfico que se dirige a las direcciones que no se han configurado de forma explícita en uno de sus adaptadores de red, a menos que se configure como la ruta predeterminada para algún conjunto de tráfico.

    Después de configurar Dispatcher como una ruta predeterminada, la carga de todo el tráfico TCP o UDP que pase por la máquina Dispatcher se equilibra utilizando la configuración de clúster comodín.

    Esto se aplica pare equilibrar la carga de cortafuegos. Puesto que los cortafuegos pueden procesar paquetes para cualquier dirección de destino y cualquier puerto de destino, es necesario poder equilibrar la carga del tráfico independientemente de la dirección y el puerto de destino.

    Los cortafuegos se utilizan para manejar el tráfico de clientes no seguros a servidores seguros, y las respuestas de los servidores seguros, así como el tráfico de clientes que están en el lado seguro a servidores que están en el lado no seguro y las respuestas.

    Debe configurar dos máquinas Dispatcher, una para equilibrar la carga del tráfico no seguro dirigido a las direcciones de cortafuegos no seguro y otra para equilibrar la carga del tráfico seguro dirigido a las direcciones del cortafuegos seguro. Puesto que los dos sistemas Dispatcher deben utilizar el clúster comodín y el puerto comodín con distintos conjuntos de direcciones de servidores, los dos sistemas Dispatcher deben estar en dos estaciones de trabajo separadas.


    Utilizar el clúster comodín con Caching Proxy para un proxy transparente

    La utilización del clúster comodín con Caching Proxy para el proxy transparente sólo se aplica al componente Dispatcher. La dirección del clúster 0.0.0.0 se utiliza para especificar un clúster comodín.

    La función de clúster comodín también permite que Dispatcher se utilice para habilitar una función de proxy transparente para un servidor Caching Proxy que resida en la misma máquina que Dispatcher. Esta característica sólo es de AIX, porque debe haber comunicación entre el componente Dispatcher y el componente TCP del sistema operativo.

    Para habilitar esta característica, debe iniciar Caching Proxy escuchando peticiones de cliente en el puerto 80. A continuación, configure un clúster comodín (0.0.0.0). En el clúster comodín, configure el puerto 80. En el puerto 80, configure la NFA de la máquina Dispatcher como el único servidor. Ahora, todo el tráfico de cliente dirigido a cualquier dirección del puerto 80 se entrega al servidor Caching Proxy que se ejecuta en la estación de trabajo de Dispatcher. La petición de cliente se dirigirá a través del proxy de la forma habitual y la respuesta se devuelve de Caching Proxy al cliente. En esta modalidad, el componente Dispatcher no realiza ningún equilibrio de carga.


    Utilizar el puerto comodín para dirigir el tráfico de puerto no configurado

    Se puede utilizar un puerto comodín puede manejar el tráfico que no está destinado a ningún puerto configurado de forma explícita. Un uso de lo anterior es para el equilibrio de carga de cortafuegos. Un segundo uso es para asegurar que el tráfico destinado a un puerto no configurado se maneja de forma adecuada. Mediante la definición de un puerto comodín sin servidores, garantizará que se descarte cualquier petición destinada a un puerto que no se haya configurado en lugar de devolverse al sistema operativo. El número de puerto 0 (cero) se utiliza para especificar el puerto comodín, por ejemplo:

    dscontrol port add clúster:0
    

    Puerto comodín para manejar el tráfico FTP

    Cuando se configura un clúster para manejar el FTP pasivo y el puerto comodín, el FTP pasivo predeterminado utiliza el rango completo de puertos TCP sin privilegios para las conexiones de datos. Esto significa que un cliente, con una conexión existente a través de un clúster de equilibrio de carga a un puerto de control FTP, tendrá conexiones de control y conexiones de puertos altos (puerto >1023)subsiguientes al mismo clúster direccionadas automáticamente por Load Balancer al mismo servidor que el de la conexión de control FTP.

    Si el puerto comodín y el puerto FTP, en el mismo clúster, no tienen el mismo conjunto de servidores, entonces es posible que las aplicaciones de puertos altos (puerto >1023) fallen cuando un cliente tenga una conexión de control FTP. Por lo tanto, no se recomienda configurar distintos conjuntos de servidores para los puertos FTP y comodín en el mismo clúster. Si se desea este escenario, se debe configurar el rango de puertos pasivos del daemon de FTP en la configuración de Load Balancer.


    Detección de ataques para rechazo de servicio (DoS)

    Esta característica sólo está disponible para el componente Dispatcher.

    Dispatcher proporciona la capacidad de detectar ataques para "rechazo de servicio" (DoS) potenciales y notifica a los administradores mediante una alerta. Dispatcher lo lleva a cabo analizando las peticiones entrantes para una cantidad llamativa de conexiones TCP medio abiertas en servidores, un rasgo común de los ataques simples para rechazo de servicio (DoS). En un ataque para rechazo de servicio (DoS), un sitio recibe una gran cantidad de paquetes SYN fabricados procedentes de un gran número de direcciones IP de origen y números de puerto de origen, pero el sitio no recibe paquetes posteriores para estas conexiones TCP. Esto resulta en un gran número de conexiones TCP medio abiertas en los servidores y, con el tiempo, los servidores pueden funcionar muy lentamente y no aceptar nuevas conexiones entrantes.

    Nota:
    Debe haber tráfico entrante a través del clúster y del puerto a los que se ataca para que Dispatcher pueda determinar el fin del ataque para rechazo de servicio (DoS). Dispatcher no puede detectar que el ataque se ha detenido hasta que el tráfico empieza a circular de nuevo.

    Load Balancer ofrece salidas de usuario que desencadenan scripts que se pueden personalizar y que avisan al administrador de un posible ataque para rechazo de servicio (DoS). Dispatcher proporciona el siguiente script de ejemplo en el directorio ...ibm/edge/lb/servers/samples:

    Para ejecutar los archivos, debe ponerlos en el directorio ...ibm/edge/lb/servers/bin y eliminar la extensión de archivo ".sample".

    Para implementar la detección del ataque DoS, establezca el parámetro maxhalfopen en el mandato dscontrol port tal como se indica a continuación:

    dscontrol port set 127.40.56.1:80 maxhalfopen 1000
    

    En el ejemplo anterior, Dispatcher comparará el número total actual de conexiones medio abiertas (para todos los servidores que residen en el clúster 127.40.56.1 en el puerto 80) con el valor de umbral 1000 (especificado por el parámetro maxhalfopen). Si el número de conexiones medio abiertas actuales excede el umbral, se realiza una llamada al script de alerta (halfOpenAlert). Cuando el número de conexiones medio abiertas es inferior al umbral, se realiza una llamada a otro script de alerta (halfOpenAlertDone) para indicar que el ataque ha terminado.

    Para determinar cómo establecer el valor maxhalfopen: ejecute periódicamente (quizás cada 10 minutos) un informe de conexiones medio abiertas (dscontrol port halfopenaddressreport clúster:puerto) cuando la cantidad de tráfico del sitio oscile de normal a elevada. El informe de conexiones medio abiertas devolverá el "total de conexiones medio abiertas recibidas" actuales. Debe establecer maxhalfopen en un valor entre un 50 y un 200% mayor que el número más alto de conexiones medio abiertas que se producen en el sitio.

    Además de los datos estadísticos reportados, halfopenaddressreport también genera entradas en las anotaciones cronológicas (..ibm/edge/lb/servers/logs/dispatcher/halfOpen.log) para todas las direcciones de cliente (hasta aproximadamente 8000 pares de direcciones) que han accedido a servidores que han resultado en conexiones medio abiertas.

    Nota:
    Existe una condición de excepción SNMP correspondiente a los scripts halfOpenAlert y halfOpenAlertDone. Si el subagente SNMP está configurado y en ejecución, las correspondientes condiciones de excepción se envían en las mismas condiciones que desencadenaron los scripts. Si desea más información sobre el subagente SNMP, consulte el apartado Utilización de Simple Network Management Protocol con el componente Dispatcher.

    Para proporcionar protección adicional de los ataques para rechazo de servicio (DoS) para servidores de programas de fondo, puede configurar puertos y clústeres comodín. En concreto, añada un puerto comodín sin servidores bajo cada clúster configurado. Añada también un clúster comodín con un puerto comodín y sin servidores. Esto provocará que se descarten todos los paquetes que no se dirijan a un clúster y puerto que no sea comodín. Para obtener información sobre clústeres comodín y puertos comodín, consulte los apartados Utilizar un clúster comodín para combinar configuraciones de servidores y Utilizar el puerto comodín para dirigir el tráfico de puerto no configurado.


    Utilización del registro cronológico binario para analizar estadísticas de servidor

    Nota:
    La característica de registro cronológico en binario se aplica al componente Dispatcher y CBR.

    El registro cronológico binario permite almacenar información de servidor en archivos binarios. Estos archivos pueden procesarse para analizar la información de servidor que se ha recopilado con el tiempo.

    La siguiente información se ha almacenado en las anotaciones cronológicas en binario para cada servidor definido en la configuración.

    Parte de esta información se recupera del ejecutor como parte del ciclo del gestor. Por lo tanto, para que la información se pueda anotar cronológicamente en las anotaciones cronológicas en binario, el gestor debe estar en ejecución.

    Utilice el mandato dscontrol binlog establecido para configurar el registro cronológico en binario.

    La opción start inicia el registro cronológico de la información de servidor en anotaciones cronológicas en binario en el directorio logs. Al inicio de cada hora se crea un archivo con la fecha y la hora como el nombre del archivo.

    La opción stop detiene el registro cronológico de la información de servidor en las anotaciones cronológicas en binario. De manera predeterminada, el servicio de anotaciones cronológicas está detenido.

    La opción set interval controla la frecuencia con la que información se escribe en las anotaciones cronológicas. Cada intervalo del gestor, éste enviará información de servidor al servidor de anotaciones cronológicas. La información se graba en las anotaciones cronológicas sólo cuando hayan transcurrido los segundos especificados en el intervalo de anotaciones cronológicas después de anotarse el último registro en las anotaciones cronológicas. De manera predeterminada, el intervalo de anotaciones cronológicas se establece en 60 segundos. Los valores del intervalo del gestor y del intervalo de anotaciones cronológicas están relacionados. Puesto que al servidor de anotaciones cronológicas se le proporciona información cómo máximo a la velocidad indicada por los segundos del intervalo del gestor, si se establece el intervalo de anotaciones cronológicas en un valor inferior al valor del intervalo del gestor en realidad se establece en el mismo valor que el intervalo del gestor. Esta técnica de registro cronológico permite captar información de servidor en cualquier granularidad. Puede captar todos los cambios realizados en la información del servidor detectados por el gestor para calcular pesos de servidor. No obstante, esta cantidad de información probablemente no es necesaria para analizar tendencias y utilización del servidor. Si se registra información del servidor cada 60 segundos, con el tiempo dispondrá de instantáneas de información del servidor. Si establece el intervalo de anotaciones cronológicas muy bajo puede generar enormes cantidades de datos.

    La opción set retention controla cuánto tiempo se mantienen los archivos. El servidor de anotaciones cronológicas elimina los archivos de anotaciones cronológicas anteriores a las horas de retención especificadas. Esto sólo sucederá si el gestor está llamando al servidor de anotaciones cronológicas, por lo tanto, si detiene el gestor no se suprimirán los archivos de anotaciones cronológicas antiguos.

    La opción de estado devuelve los valores actuales del servicio de anotaciones cronológicas. Estos valores indican si el servicio se ha iniciado, el intervalo y las horas de retención.

    Se proporciona un archivo de mandatos y un programa Java de ejemplo en el directorio ...ibm/edge/lb/servers/samples/BinaryLog. Este ejemplo muestra cómo recuperar toda la información de los archivos de anotaciones cronológicas e imprimirla en la pantalla. Puede personalizar realizar cualquier tipo de análisis que desea con los datos. Un ejemplo de la utilización del script proporcionado y el programa para Dispatcher sería:

    dslogreport 2001/05/01 8:00 2001/05/01 17:00
    

    para obtener un informe con la información de servidor del componente Dispatcher para el día 1 de mayo de 2001, de las 8:00 a las 17:00. (Para CBR, utilice cbrlogreport).


    Utilización de un cliente con ubicación compartida

    Sólo los sistemas Linux dan soporte a configuraciones en las que el cliente se encuentra en la misma máquina que Load Balancer.

    Las configuraciones de cliente con ubicación compartida pueden no funcionar correctamente en otras plataformas porque Load Balancer utiliza distintas técnicas para examinar los paquetes de entrada en los diversos sistemas operativos a los que da soporte. En la mayoría de los casos, en sistemas que no sean Linux, Load Balancer no recibe paquetes que proceden de la máquina local. Sólo recibe paquetes que proceden de la red. Debido a ello, Load Balancer no recibirá las peticiones realizadas desde la máquina local a la dirección de clúster y no podrá atenderlas


    Características avanzadas de Cisco CSS Controller y Nortel Alteon Controller

    Este capítulo incluye los apartados siguientes:

    Nota:
    En este capítulo xxxcontrol indica ccocontrol para Cisco CSS Controller y nalcontrol para Nortel Alteon Controller.

    Ubicación compartida

    Cisco CSS Controller o Nortel Alteon Controller puede residir en la misma máquina como servidor para el que se está equilibrando la carga de peticiones. Esto se conoce habitualmente como ubicación compartida de un servidor. No es necesario llevar a cabo más pasos de configuración.

    Nota:
    Un servidor con ubicación compartida compite por los recursos contra Load Balancer durante los periodos de mucho tráfico. Sin embargo, si no hay máquinas sobrecargadas, si se utiliza un servidor con ubicación compartida se reducirá el número total de máquinas necesarias para definir un sitio con equilibrio de carga.

    Alta disponibilidad

    La característica de alta disponibilidad está ahora disponible para Cisco CSS Controller y Nortel Alteon Controller.

    Para mejorar la tolerancia de errores del controlador, la función de alta disponibilidad contiene estas funciones:

    Configuración

    Consulte los apartados ccocontrol highavailability -- controlar alta disponibilidad y nalcontrol highavailability -- controlar alta disponibilidad para conocer la sintaxis completa de xxxcontrol highavailability.

    Para configurar la alta disponibilidad del controlador:

    1. Inicie el servidor del controlador en las dos máquinas del controlador.
    2. Configure cada controlador con configuraciones idénticas.
    3. Configure el rol de alta disponibilidad local, dirección y dirección de socio tal como se indica a continuación:
      xxxcontrol highavailability add address 10.10.10.10 
      partneraddress 10.10.10.20 port 143 role primary
      
    4. Configure el rol de alta disponibilidad de socio, dirección y dirección de socio tal como se indica a continuación:
      xxxcontrol highavailability add address 10.10.10.20 
      partneraddress 10.10.10.10 port 143 role secondary
      

      Los parámetros address y partneraddress se invierten en las máquinas primaria y secundaria.

    5. Si lo desea, configure los parámetros de alta disponibilidad en los controladores local y asociado; por ejemplo:
      xxxcontrol highavailability set beatinterval 1000
      
    6. Si lo desea, configure los destinos de alcance en los controladores local y asociado como se indica a continuación:
      xxxcontrol highavailability usereach 10.20.20.20
      

      Debe configurarse el mismo número de destinos de alcance en los controladores local y asociado.

    7. Inicie el componente de alta disponibilidad y defina la estrategia de recuperación en los controladores local y asociado como se indica a continuación:
      xxxcontrol highavailability start auto
      
    8. De manera opcional, puede mostrar la información de alta disponibilidad de los controladores local y asociado como se indica a continuación:
      xxxcontrol highavailability report
      
    9. De manera opcional, especifique la toma de control sobre el controlador en espera para asumir el control desde el controlador activo como se indica a continuación:
      xxxcontrol highavailability takeover
      

      Esto sólo es necesario para realizar el mantenimiento.

    Notas:

    1. Para configurar un solo controlador sin alta disponibilidad, no emita ningún mandato de alta disponibilidad.

    2. Para convertir dos controladores de una configuración de alta disponibilidad en un solo controlador, primero detenga la alta disponibilidad en el controlador en espera y, si lo desea, después detenga la alta disponibilidad en el controlador activo.

    3. Cuando ejecuta dos controladores en una configuración de alta disponibilidad, pueden producirse resultados imprevistos si algunas de las propiedades del controlador son distintas entre los conmutadores; por ejemplo, el identificador de consultor de conmutador, la dirección de conmutador, etc. También puede obtener resultados imprevistos si las propiedades de alta disponibilidad del controlador no coinciden; por ejemplo, el puerto, el rol, los destinos de alcance, el intervalo de pulsos, el intervalo de toma de control y la estrategia de recuperación.

    Detección de anomalías

    Además de la pérdida de conectividad entre controladores activos y en espera, que se detecta a través de los mensajes de pulsos, accesibilidad proporciona otro mecanismo de detección de anomalías.

    Al configurar la alta disponibilidad del controlador, puede proporcionar una lista de los hosts a los que deben acceder los controladores para funcionar correctamente. Debe haber cómo mínimo un host para cada subred que utiliza la máquina del controlador. Estos hosts pueden ser direccionadores, servidores IP u otros tipos de hosts.

    La accesibilidad de hosts se obtiene mediante el asesor de alcance que emite el mandato ping al host. Tiene lugar la conmutación si los mensajes de pulso no pueden transmitirse o si los criterios de accesibilidad los satisface mejor el controlador en espera que el controlador activo. Para tomar esta decisión basándose en toda la información disponible, el controlador activo envía regularmente al controlador en espera su capacidad de accesibilidad y viceversa. Los controladores comparan su información de accesibilidad con la información de su socio y deciden quién debe estar activo.

    Estrategia de recuperación

    Los roles de las dos máquinas de controlador se configurar como primario y secundario. Durante el arranque, los controladores intercambian información hasta que se sincroniza cada máquina. En este punto, el controlador primario pasa al estado activo y empieza a calcular pesos y a actualizar el conmutador, mientras que la máquina secundaria pasa a estado de espera y supervisa la disponibilidad de la máquina primaria.

    Si en cualquier momento la máquina en espera detecta que la máquina activa ha sufrido una anomalía, la máquina en espera asumirá el control de las funciones de equilibrio de carga de la máquina activa (anómala) y pasará a ser la máquina activa. Cuando la máquina primaria vuelve a estar operativa, las dos máquinas determinan qué controlador estará activo según cómo se haya configurado la estrategia de recuperación.

    Hay dos tipos de estrategia de recuperación:

    Recuperación automática

    El controlador primario pasa al estado activo y empieza a calcular y actualizar pesos tan pronto vuelve a estar operativo. La máquina secundaria pasa al estado en espera una vez que la máquina primaria está activa.

    Recuperación manual

    El controlador secundario activo permanece en estado activo, incluso después de que el controlador primario sea operativo.

    El controlador primario pasa al estado en espera y requiere intervención manual para pasar al estado activo.

    El parámetro strategy debe tener el mismo valor en ambas máquinas.

    Ejemplos

    Para obtener ejemplos de configuración de alta disponibilidad de Cisco CSS Controller, consulte los Ejemplos.

    Para obtener ejemplos de configuración de alta disponibilidad de Nortel Alteon Controller, consulte los Ejemplos.


    Optimización del equilibrio de carga que proporciona Load Balancer

    La función de controlador de Load Balancer lleva a cabo el equilibrio de carga basándose en los siguientes valores:

    Si lo desea, modifique estos valores para optimizar el equilibrio de carga para la red.

    Importancia dada a la información métrica

    El controlador puede utilizar algunos de los siguientes recopiladores de métricas o todos cuando se sopesan las decisiones:

    La métrica predeterminada es activeconn y connrate.

    Puede cambiar la proporción de importancia relativa de los valores de métrica. Piense en las proporciones como si fueran porcentajes; la suma de las proporciones relativas debe ser 100%. De manera predeterminada, se utilizan las conexiones activas y la nueva métrica de conexiones y sus proporciones se fijan en 50/50. Es posible que sea necesario probar distintas combinaciones de proporciones de métrica en su entorno hasta encontrar la combinación que ofrezca el mejor rendimiento.

    Para establecer los valores de proporción:

    En Cisco CSS Controller
    ccocontrol ownercontent metrics nombre_métrica1 proporción1 nombre_métrica2 proporción2

    En Nortel Alteon Controller
    nalcontrol service metrics nombre_métrica1 proporción1 nombre_métrica2 proporción2

    Pesos

    Los pesos se establecen en función del tiempo de respuesta de la aplicación, información procedente de los asesores e información procedente de un programa de supervisión del sistema, como Metric Server. Si desea establecer pasos manualmente, especifique la opción fixedweight para el servidor. Para obtener una descripción de la opción fixedweight, consulte el apartado Pesos fijos del controlador.

    Los pesos se aplican a todos los servidores que proporcionan un servicio. Para cualquier servicio concreto, las peticiones se distribuyen entre servidores en función del peso que dichos servidores tienen entre sí. Por ejemplo, si el peso de un servidor se establece en 10 y el de otro en 5, el servidor establecido en 10 debería recibir el doble de peticiones que el servidor establecido en 5.

    Si un asesor encuentra que un servidor ha concluido, el peso para el servidor se establece en -1. En Cisco CSS Controller y Nortel Alteon Controller, se informa al conmutador que el servidor no está disponible y el conmutador deja de asignar conexiones al servidor.

    Pesos fijos de controlador

    Sin el controlador, los asesores no se pueden ejecutar y no pueden detectar si un servidor está inactivo. Si opta por ejecutar los asesores, pero no desea que el controlador actualice el peso establecido para un servidor concreto, utilice la opción fixedweight en el mandato ccocontrol service en Cisco CSS Controller o el mandato nalcontrol server en Nortel Alteon Controller.

    Utilice el mandato fixedweight para establecer el peso en el valor que desee. El valor de peso del servidor permanece fijo mientras el controlador se está ejecutando hasta que se emite otro mandato con la opción fixedweight establecida en no.

    Tiempos de inactividad en el cálculo de pesos

    Para optimizar el rendimiento general, puede restringir la frecuencia con la que se recopila la métrica.

    El tiempo de inactividad del consultor especifica la frecuencia con la que el consultor actualiza los pesos del servidor. Si el valor de tiempo de inactividad del consultor es demasiado bajo, puede suponer un bajo rendimiento como resultado de que el consultor interrumpe constantemente al conmutador. Si el valor de tiempo de inactividad del consultor es demasiado alto, puede significar que el equilibrio de carga del conmutador no se basará en información actualizada y precisa.

    Por ejemplo, para establecer el tiempo de inactividad del consultor en 1 segundo:

    xxxcontrol consultant set ID_consultor sleeptime intervalo
    

    Umbral de sensibilidad

    Hay otros métodos disponibles para optimizar el equilibrio de carga para los servidores. Para trabajar a máxima velocidad, sólo se actualizan los pesos de los servidores si dichos pesos han cambiado de una manera significativa. Si se actualizan constantemente los pesos cuando no se produce ningún cambio en el estado del servidor o dicho cambio es muy pequeño, supondrá una carga adicional innecesaria. Cuando el cambio en el porcentaje del peso para el peso total de todos los servidores que proporcionan un servicio es mayor que el umbral de sensibilidad, se actualizan los pesos utilizados por Load Balancer para distribuir las conexiones. Por ejemplo, suponga que el total de los cambios de pesos pasa de 100 a 105. El cambio es del 5%. Con el umbral de sensibilidad predeterminada 5, los pesos utilizados por Load Balancer no se actualizan, porque el cambio del porcentaje no está por encima del umbral. Sin embargo, si el peso total pasa de 100 a 106, los pesos se actualizan. Para establecer el umbral de sensibilidad del consultor en un valor distinto del valor predeterminado, escriba el siguiente mandato:

      xxxcontrol consultant set ID_consultor sensitivity porcentaje_cambio
    

    En la mayoría de los casos, no es necesario cambiar este valor.


    Asesores

    Los asesores son agentes incluidos en Load Balancer. Su finalidad es evaluar el estado y la carga de las máquinas servidor. Esto lo llevan a cabo con un intercambio parecido a los clientes proactivos con los servidores. Piense en los asesores como clientes ligeros de los servidores de aplicaciones.

    Nota:
    Para obtener una lista detallada de asesores, consulte el apartado Lista de asesores.

    Cómo funcionan los asesores

    Los asesores abren periódicamente una conexión TCP con cada servidor y envían un mensaje de petición al servidor. El contenido del mensaje es específico para el protocolo que se ejecuta en el servidor. Por ejemplo, el asesor HTTP envía una petición HTTP "HEAD" al servidor.

    Los asesores están a la escucha de la respuesta del servidor. Después de obtener la respuesta, el asesor realiza una evaluación del servidor. Para calcular este valor de carga, la mayoría de los asesores calculan el tiempo que el servidor tarda en responder y luego utilizan este valor (en milisegundos) como carga.

    A continuación, los asesores notifican el valor de la carga a la función de consultor donde aparece en el informe del consultor. Luego, el consultor calcula los valores de peso total de todas las fuentes, según sus proporciones y envía estos valores del peso al conmutador. El conmutador utiliza estos valores para realizar el equilibrio de carga de nuevas conexiones de cliente entrantes.

    Si el asesor determina que un servidor está activo y funciona, notifica al consultor un número de carga positivo distinto de cero. Si el asesor determina que un servidor no está activo, devuelve el valor de carga especial uno negativo (-1) para notificar al conmutador que el servidor está inactivo. Posteriormente, el conmutador no enviará más conexiones a dicho servidor hasta que el servidor no vuelva a estar en funcionamiento.

    Tiempos de inactividad del asesor

    Nota:
    Los valores predeterminados del asesor funcionan de forma eficaz para la gran mayoría de casos posibles. Preste atención cuando especifique valores distintos a los valores predeterminados.

    El tiempo de inactividad del asesor establece la frecuencia con la que un asesor solicita el estado de los servidores en el puerto que está supervisando y, a continuación, notifica los resultados al consultor. Si el valor de tiempo de inactividad del asesor es demasiado bajo, puede dar como resultado un bajo rendimiento porque el asesor interrumpe constantemente a los servidores. Si el valor de tiempo de inactividad del asesor es demasiado alto, puede significar que la ponderación de decisiones del consultor no se basa en información actualizada y precisa.

    Por ejemplo, para establecer el intervalo en 3 segundos para el asesor HTTP, escriba el siguiente mandato:

    xxxcontrol metriccollector set ID_consultor:HTTP sleeptime 3
    

    Tiempo de espera de conexión y recepción del asesor para los servidores

    Puede establecer la cantidad de tiempo que un asesor tarda en detectar que un puerto concreto del servidor o servicio ha sufrido una anomalía. Los valores de tiempo de espera del servidor anómalo, connecttimeout y receivetimeout, determinan cuánto tiempo espera un asesor antes de informar que se ha producido una anomalía en una conexión o recepción.

    Para obtener la detección de servidor anómalo más rápida, establezca los tiempos de espera de conexión y recepción en el valor más pequeño (un segundo) y establezca el tiempo de inactividad del consultor y asesor en el valor más pequeño (un segundo).

    Nota:
    Si el volumen de tráfico de la red oscila entre moderado a alto y la respuesta del servidor aumenta, no establezca los valores timeoutconnect y timeoutreceive demasiado bajos. Si estos valores son demasiado pequeños, el asesor puede marcar prematuramente como anómalo un servidor ocupado.

    Para establecer timeoutconnect en 9 segundos para el asesor HTTP, escriba el siguiente mandato:

    xxxcontrol metriccollector set ID_consultor:HTTP timeoutconnect 9
    

    El valor predeterminado para el tiempo de espera de conexión y recepción es 3 veces el valor especificado para el tiempo de inactividad del asesor.

    Reintento del asesor

    Los asesores tienen la capacidad de reintentar una conexión antes de marcar un servidor como inactivo. El asesor no marcará un servidor como inactivo hasta que la consulta del servidor haya fallado el número de reintentos más 1. Si no se establece, el valor de reintento toma el valor predeterminado que es cero.

    En Cisco CSS Controller, especifique el valor retry utilizando el mandato ccocontrol ownercontent set. Para obtener más información, consulte el apartado ccocontrol ownercontent -- controlar el nombre de propietario y la regla de contenido.

    En Nortel Alteon Controller, especifique el valor retry utilizando el mandato nalcontrol service set. Para obtener más información, consulte el apartado nalcontrol service -- configurar un servicio.


    Crear asesores personalizados (personalizables)

    Nota:
    En este apartado servidor se utiliza como término genérico para hacer referencia a un servicio de Cisco CSS Controller o a un servidor de Nortel Alteon Controller.

    El asesor personalizado (personalizable) es un trozo pequeño de código Java que se proporciona como archivo de clases y es llamado por el código base. El código base proporciona todos los servicios administrativos, como:

    También notifica los resultados al consultor. De forma periódica, el código base lleva a cabo un ciclo de asesor, donde evalúa de forma individual todos los servidores en su configuración. Empieza abriendo una conexión con una máquina servidor. Si se abre el socket, el código base llama al método getLoad (función) en el asesor personalizado. A continuación, el asesor personalizado llevará a cabo los pasos necesarios para evaluar el estado del servidor. En general, envía al servidor un mensaje definido por el usuario y luego espera una respuesta. (Se proporciona acceso al socket abierto para el asesor personalizado). A continuación, el código base cierra el socket con el servidor y notifica la información de carga al consultor.

    El código base y el asesor personalizado puede funcionar en modalidad normal o de sustitución. La selección de la modalidad de operación se especifica en el archivo de asesor personalizado como parámetro en el método del constructor.

    En modalidad normal, el asesor personalizado intercambia datos con el servidor y el código del asesor base calcula la duración del intercambio y calcula el valor de carga. A continuación, el código base informa de este valor de carga al consultor. El asesor personalizado sólo necesita devolver un cero (cuando es satisfactorio) o un valor negativo (cuando es erróneo). Para especificar la modalidad normal, el distintivo de sustitución en el constructor se establece en false.

    En modalidad de sustitución, el código base no lleva a cabo las mediciones de tiempo. El código del asesor personalizado realiza todas las operaciones que desee para sus requisitos exclusivos y, a continuación, devuelve un número de carga real. El código base aceptará el número y lo notificará al consultor. Para obtener los mejores resultados, normalice el número de carga entre 10 y 1000, en donde 10 representa un servidor rápido y 1000 representa un servidor lento. Para especificar la modalidad de sustitución, el distintivo de sustitución en el constructor se establece en true.

    Con esta característica, puede escribir sus propios asesores de forma que proporcionen la información exacta que necesite sobre los servidores. Se proporciona un asesor personalizado de ejemplo para los controladores, ADV_ctlrsample.java. Después de instalar Load Balancer, puede encontrar el código de ejemplo en el directorio de instalación ...ibm/edge/lb/servers/samples/CustomAdvisors.

    Los directorios de instalación predeterminado son:

    Nota:
    Si añade un asesor personalizado a Cisco CSS Controller o Nortel Alteon Controller, debe detener y después reiniciar ccoserver o nalserver (en sistemas Windows, utilice Servicios) para que el proceso Java pueda leer los nuevos archivos de clase de asesor personalizado. Los archivos de clase de asesor personalizado sólo se cargan durante el arranque.

    Convenio de denominación

    El nombre de archivo de asesor personalizado debe tener el formato ADV_miasesor.java. Debe empezar con el prefijo ADV_ en mayúsculas. Todos los caracteres subsiguientes deben indicarse en minúsculas.

    Según los convenios Java, el nombre de la clase definida dentro del archivo debe coincidir con el nombre del archivo. Si copia el código de ejemplo, asegúrese de cambiar todas las instancias de ADV_ctrlsample dentro del archivo por el nuevo nombre de clase.

    Compilación

    Los asesores personalizados se escriben en lenguaje Java. Utilice el compilador Java que se instala con Load Balancer. Durante la compilación aparecen referenciados los siguientes archivos:

    La classpath debe apuntar al archivo de asesor personalizado y el archivo de clases base durante la compilación.

    En la plataforma Windows, un mandato de compilación puede ser parecido al siguiente:

    dir_instalación/java/bin/javac -classpath
        dir_instalación\lb\servers\lib\ibmlb.jar ADV_pam.java
     
    

    donde:

    La salida de la compilación está en un archivo de clases; por ejemplo:

    ADV_pam.class
    

    Antes de iniciar el asesor, copie el archivo de clases en el directorio de instalación ...ibm/edge/lb/servers/lib/CustomAdvisors.

    Nota:
    Si lo desea, los asesores personalizados pueden compilarse en un sistema operativo y ejecutarse en otro. Por ejemplo, puede compilar el asesor en sistemas Windows, copiar el archivo de clase (en binario) en una máquina AIX y ejecutar aquí el asesor personalizado.

    En sistemas AIX, HP-UX, Linux y Solaris, la sintaxis es parecida.

    Ejecución

    Para ejecutar el asesor personalizado, primero debe copiar el archivo de clases en el directorio de instalación adecuado:

    ...ibm/edge/lb/servers/lib/CustomAdvisors/ADV_pam.class
    

    Inicie el consultor y luego emita este mandato para iniciar el asesor personalizado:

    En Cisco CSS Controller
    ccocontrol ownercontent metrics ID_consultor:ID_contenido_propietario pam 100

    En Nortel Alteon Controller
    nalcontrol service metrics ID_consultor:ID_servicio pam 100

    donde:

    Rutinas necesarias

    Como todos los asesores, un asesor personalizado amplía la función del asesor base, denominada ADV_Base. Se trata de la base del asesor que en realidad efectúa la mayoría de las funciones del asesor, como informar de las cargas al consultor para que se utilicen en el algoritmo de peso del consultor. La base del asesor también realiza operaciones de conexión y cierre de sockets, y proporciona métodos de envío y recepción para que el asesor los utilice. El asesor sólo se utiliza para enviar datos y recibir datos en el puerto del servidor que se está asesorando. Para calcular la carga, se calcula la duración de los métodos TCP incluidos en la base del asesor. Un distintivo incluido en el constructor en ADV_base escribe encima de la carga existente la nueva carga devuelta desde el asesor, si se desea.

    Nota:
    La base del asesor proporciona la carga al algoritmo de peso a intervalos especificados en función de un valor fijado en el constructor. Si el asesor real no se ha completado y no puede devolver una carga válida, la base del asesor utiliza la carga anterior.

    A continuación se indican los métodos de clase base:

    Orden de búsqueda

    En primer lugar, los controladores examinan la lista de asesores nativos que se proporciona; si no encuentran un asesor específico en la lista, consultarán la lista de asesores personalizados.

    Denominación y vía de acceso

    Asesor de ejemplo

    La lista de programas de un asesor de ejemplo de controlador se incluye en Asesor de ejemplo. Después de la instalación, este asesor de ejemplo puede encontrarse en el directorio ...ibm/edge/lb/servers/samples/CustomAdvisors .


    Metric Server

    Metric Server proporciona información de carga de servidor para Load Balancer en la forma de métricas específicas del sistema que notifica el estado de los servidores. El consultor de Load Balancer examina el agente de Metric Server que reside en cada uno de los servidores y asigna pesos al proceso de equilibrio de carga utilizando la métrica recopilada desde los agentes. Los resultados también aparecen en el informe de servicio de Cisco CSS Controller o en el informe de servidor de Nortel Alteon Controller.

    Requisitos previos

    El agente de Metric Server debe estar instalado y en ejecución en todos los servidores en los que se está realizando el equilibrio de carga.

    Cómo utilizar Metric Server

    A continuación se muestran los pasos para configurar Metric Server para los controladores.

    Para que Metric Server se ejecute en una dirección distinta del host local, edite el archivo metricserver en la máquina servidor con equilibrio de carga. En el archivo metricserver, inserte lo siguiente después de java:

    -Djava.rmi.server.hostname=OTRA_DIRECCIÓN
    

    Además, añada hostname OTRA_DIRECCIÓN antes de las sentencias "if" en el archivo metricserver.

    En sistemas Windows: cree un alias de OTRA_DIRECCIÓN en la pila de Microsoft. Para crear un alias para una dirección en la pila de Microsoft, consulte la página Configuración de un alias en la pila de Microsoft para Metric Server.


    Asesor del gestor de carga de trabajo

    WLM es el código que se ejecuta en hosts MVS. Puede consultarse para saber la carga de la máquina MVS.

    Cuando se ha configurado la gestión de carga de trabajo de MVS en el sistema OS/390, los controladores pueden aceptar información de capacidad de WLM y utilizarla en el proceso de carga del sistema. Con el asesor WLM, los controladores abren de forma periódica las conexiones a través del puerto de WLM en cada servidor de la tabla de host de consultor y aceptar los enteros de capacidad devueltos. Puesto que estos enteros representan la cantidad de capacidad que todavía está disponible y los consultores esperan valores que representan las cargas en cada máquina, el asesor invierte los enteros de capacidad y se sistematizan en valores de carga (por ejemplo, un entero de gran capacidad y un valor de carga pequeño representan un servidor eficaz. Hay varias diferencias importantes entre el asesor WLM y los demás asesores de controlador.

    1. Otros asesores abren conexiones para los servidores utilizando el mismo puerto en el que circula el tráfico de cliente normal. El asesor WLM abre conexiones para los servidores utilizando un puerto distinto del que utiliza el tráfico normal. El agente de WLM en cada máquina servidor debe configurarse de modo que escuche en el mismo puerto en el que se inicia el asesor WLM del controlador. El puerto predeterminado de WLM es 10007.
    2. Junto con el asesor WLM es posible utilizar los dos asesores específicos del protocolo. Los asesores específicos de protocolo sondearán los servidores en sus puertos de tráfico normal y el asesor WLM sondeará la carga del sistema utilizando el puerto WLM.

    Utilización del registro cronológico binario para analizar estadísticas de servidor

    El dispositivo de registro cronológico binario permite almacenar información de servidor en archivos binarios. Estos archivos pueden procesarse para analizar la información de servidor que se ha recopilado con el tiempo.

    La siguiente información se ha almacenado en las anotaciones cronológicas en binario para cada servidor definido en la configuración.

    El consultor debe estar en ejecución para anotar información en las anotaciones cronológicas en binario.

    Utilice el conjunto de mandatos xxxcontrol consultant binarylog para configurar el registro cronológico en binario.

    La opción start inicia el registro cronológico de la información de servidor en anotaciones cronológicas en binario en el directorio logs. Al inicio de cada hora se crea un archivo con la fecha y la hora como el nombre del archivo.

    La opción stop detiene el registro cronológico de la información de servidor en las anotaciones cronológicas en binario. De manera predeterminada, el servicio de anotaciones cronológicas está detenido.

    La opción set interval controla la frecuencia con la que información se escribe en las anotaciones cronológicas. Cada intervalo del consultor, éste enviará información de servidor al servidor de anotaciones cronológicas. La información se graba en las anotaciones cronológicas sólo cuando hayan transcurrido los segundos especificados en el intervalo de anotaciones cronológicas después de anotarse el último registro en las anotaciones cronológicas. De manera predeterminada, el intervalo de anotaciones cronológicas se establece en 60 segundos.

    Los valores del intervalo del consultor y el intervalo de anotaciones cronológicas están relacionados. Puesto que al servidor de anotaciones cronológicas se le proporciona información cómo máximo a la velocidad indicada por los segundos del intervalo del consultor, si se establece el intervalo de anotaciones cronológicas en un valor inferior al valor del intervalo del consultor en realidad se establece en el mismo valor que el intervalo del consultor.

    Esta técnica de registro cronológico permite captar información de servidor en cualquier granularidad. Puede captar todos los cambios realizados en la información del servidor detectados por el consultor para calcular pesos de servidor; sin embargo, es probable que esta cantidad de información no sea necesaria para analizar las tendencias y el uso del servidor. Si se registra información del servidor cada 60 segundos, con el tiempo dispondrá de instantáneas de información del servidor. Si establece el intervalo de anotaciones cronológicas muy bajo puede generar enormes cantidades de datos.

    La opción set retention controla cuánto tiempo se mantienen los archivos. El servidor de anotaciones cronológicas elimina los archivos de anotaciones cronológicas anteriores a las horas de retención especificadas. Esto sólo sucede si el consultor llama al servidor de anotaciones cronológicas, ya que si se detiene el consultor, no se suprimirán los archivos de anotaciones cronológicas antiguos.

    Se proporciona un archivo de mandato y un programa Java en el directorio ...ibm/edge/lb/servers/samples/BinaryLog. Este ejemplo muestra cómo recuperar toda la información de los archivos de anotaciones cronológicas e imprimirla en la pantalla. Puede personalizar realizar cualquier tipo de análisis que desea con los datos.

    A continuación se proporciona un ejemplo de la utilización del programa y script suministrados:

    xxxlogreport 2002/05/01 8:00 2002/05/01 17:00
    

    Esto genera un informe de la información de servidor del controlador para el día 1 de mayo de 2002, de las 8:00 a las 17:00.


    Utilización de scripts para generar una alerta o anotar anomalías en el servidor

    Load Balancer proporciona salidas de usuario que desencadenan scripts que se pueden personalizar. Puede crear los scripts para realizar acciones automatizadas, como avisar a un administrador cuando se marca que los servidores están inactivos o simplemente anotar el suceso de la anomalía. Los scripts de ejemplo, que puede personalizar, están en el directorio de instalación ...ibm/edge/lb/servers/samples. Para ejecutar los archivos, cópielos en el directorio ...ibm/edge/lb/servers/bin y, a continuación, cambie el nombre de cada archivo de acuerdo con las instrucciones incluidas en el script.

    Se proporcionan los siguientes scripts de ejemplo, donde xxx es cco para Cisco CSS Controller, y nal para Nortel Alteon Controller:


    Administración y resolución de problemas de Load Balancer

    En esta parte se proporciona información sobre cómo administrar y resolver problemas de Load Balancer. Contiene los capítulos siguientes:


    Funcionamiento y gestión de Load Balancer

    Nota:
    Cuando lea este capítulo, en los apartados generales que no son específicos de un componente, si no utiliza el componente Dispatcher, sustituya "dscontrol" y "dsserver" por lo que se detalla a continuación:

    En este capítulo se describe cómo operar y gestionar Load Balancer e incluye estos apartados:


    Administración remota de Load Balancer

    Load Balancer proporciona dos modos distintos de ejecutar los programas de configuración en una máquina aparte de aquella en la que reside Load Balancer. La comunicación entre los programas de configuración (dscontrol, cbrcontrol, sscontrol, ccocontrol, nalcontrol) y el servidor (dsserver, cbrserver, etc.) se puede realizar utilizando uno de estos métodos:

    La ventaja de la administración remota utilizando RMI es que el rendimiento es más rápido que la administración basada en la Web.

    Las ventajas de utilizar la administración basada en la Web es que proporciona administración remota, autenticada y segura y se puede comunicar con la máquina Load Balancer aún cuando esté presente un cortafuegos. Además, este método de administración no requiere la instalación y el uso de claves de autenticación (lbkeys) en la máquina cliente remota que se comunica con la máquina Load Balancer.

    RMI (Remote Method Invocation)

    Para RMI, el mandato para conectar con una máquina de Load Balancer para la administración remota es dscontrol host:host_remoto.

    Si la llamada a RMI procede de una máquina que no sea la máquina local, debe producirse una secuencia de autenticación de clave pública/privada antes de que sea aceptado el mandato de configuración.

    La comunicación entre los programas de control que se ejecutan en la misma máquina que los servidores del componente no se autentica.

    Utilice este mandato para generar claves públicas y privadas que se van a utilizar para autenticación remota:

    lbkeys [create|delete]

    Este mandato se ejecuta sólo en la misma máquina que Load Balancer.

    El uso de la opción create crea una clave privada en el subdirectorio key del directorio servers (...ibm/edge/lb/servers/key/) y crea claves públicas en el subdirectorio keys del directorio admin (...ibm/edge/lb/admin/keys/) para cada uno de los componentes de Load Balancer. El nombre de archivo para la clave pública es: componente- DirecciónServidor-puertoRMI. Estas claves públicas deben transportarse entonces a los clientes remotos y colocarse en el subdirectorio keys del directorio admin.

    Para una máquina de Load Balancer con la dirección de nombre de host 10.0.0.25 que utiliza el puerto RMI predeterminado para cada componente, el mandato lbkeys create genera estos archivos:

    El conjunto de archivos de administración se ha instalado en otra máquina. Los archivos de clave pública deben ubicarse en el directorio ...ibm/edge/lb/admin/keys de la máquina cliente remota.

    Ahora se autorizará al cliente remoto para configurar Load Balancer en 10.0.0.25.

    Se deben utilizar estas mismas claves en todos los clientes remotos que desea autorizar para configurar Load Balancer en 10.0.0.25.

    Si fuera a ejecutar de nuevo el mandato lbkeys create, se generaría un nuevo conjunto de claves públicas/privadas. Esto significaría que todos los clientes remotos que intentaran conectar con las claves anteriores no serían autorizados. La nueva clave tendría que ubicarse en el directorio correcto de los clientes a los que deseara volver a autorizar.

    El mandato lbkeys delete suprime las claves privadas y públicas en la máquina servidor. Si se suprimen estas claves, no se autorizará a ningún cliente remoto para conectarse con los servidores.

    Para los dos mandatos: lbkeys create y lbkeys delete, hay una opción force. La opción force suprime las indicaciones del mandato que solicitan si desea sobrescribir o suprimir las claves existentes.

    Después de establecer la conexión RMI, puede comunicar entre los programas de configuración utilizando los mandatos: dscontrol, cbrcontrol, sscontrol, ccocontrol, nalcontrol, dswizard, cbrwizard y sswizard desde un indicador de mandatos. También puede configurar Load Balancer mediante la GUI escribiendo lbadmin en un indicador de mandatos.

    Nota:
    Debido a cambios en los paquetes de seguridad de la versión Java, las claves de Load Balancer generadas para releases anteriores a v5.1.1 quizá no sean compatibles con las claves del release actual, de modo que debe volver a generar las claves cuando instale un nuevo release.

    Administración basada en la Web

    Requisitos

    Para utilizar administración basada en la Web, se necesita lo siguiente en la máquina cliente que realiza la administración remota:

    Se necesita lo siguiente en la máquina de host a la que accede para realizar la administración remota basada en la Web:

    Configuración de Caching Proxy

    Ejecución y acceso a la administración basada en la Web

    Para ejecutar la administración basada en la Web, debe iniciarse ésta en la máquina de host de Load Balancer: emita lbwebaccess en el indicador de mandatos de la máquina de host.

    También se necesita el ID de usuario y la contraseña para la máquina de host a la que va a acceder de forma remota. El ID de usuario y la contraseña son los mismos que para la administración de Caching Proxy.

    Para presentar la administración basada en la Web de Load Balancer, acceda a esta dirección URL en el navegador Web de la ubicación remota:

    http://
    nombre_host/lb-admin/lbadmin.html
    

    Donde nombre_host es el nombre de la máquina a la que va a acceder para comunicarse con Load Balancer.

    Una vez que se ha cargado la página Web, aparecerá la GUI de Load Balancer en la ventana del navegador para que realice la administración remota basada en la Web.

    Desde la GUI de Load Balancer, también puede emitir mandatos de control de configuración. Para emitir un mandato desde la GUI:

    1. Resalte el nodo de host en el árbol de la GUI
    2. Seleccione Enviar mandato... en el menú emergente del host
    3. En el campo de entrada de mandatos, escriba el mandato que desea ejecutar. Por ejemplo: executor report. Aparecerán en la ventana proporcionada los resultados y el historial de los mandatos ejecutados en la sesión actual.

    Renovación de la configuración de forma remota

    Con la administración remota basada en la Web, si hay varios administradores actualizando la configuración de Load Balancer desde otras ubicaciones, tendrá que renovar la configuración para consultar (por ejemplo) el clúster, el puerto o el servidor que otro administrador ha añadido (o suprimido). La GUI de administración remota basada en la Web proporciona una función de Renovar configuración y Renovar todas las configuraciones.

    Desde la GUI basada en la Web, para renovar la configuración


    Utilización de los registros de Load Balancer

    Para Dispatcher, CBR y Site Selector

    Load Balancer envía entradas a un archivo de anotaciones cronológicas de: el servidor, el gestor y el supervisor de métrica (que anota las comunicaciones con agentes Metric Server) así como a un archivo de anotaciones cronológicas para cada asesor que utiliza.

    Nota:
    De forma adicional, sólo para el componente Dispatcher, se pueden realizar las entradas a un archivo de anotaciones cronológicas de subagente (SNMP).
    Nota:
    El componente CBR (Content Based Routing) está disponible en todas las plataformas admitidas excepto donde se ejecuta una JVM de 64 bits. De modo alternativo, puede utilizar el método de reenvío cbr del componente Dispatcher de Load Balancer para proporcionar el direccionamiento basado en contenido sin utilizar Caching Proxy. Consulte el apartado Direccionamiento basado en contenido de Dispatcher (método de reenvío cbr) para obtener más información.

    Puede establecer el nivel de anotaciones para definir la expansividad de los mensajes grabados en el archivo de anotaciones cronológicas. En el nivel 0, se anotan los errores y Load Balancer también anota las cabeceras y los registros de sucesos que suceden sólo una vez (por ejemplo, un mensaje sobre un asesor que se empieza a grabar en el archivo de anotaciones cronológicas del gestor). El nivel 1 incluye la información en curso y, así sucesivamente, con el nivel 5 incluyendo todos los mensajes producidos para ayudar a depurar un problema si es necesario. El valor predeterminado de los archivos de anotaciones cronológicas de: el gestor, el asesor, el servidor o el subagente es 1.

    También puede establecer el tamaño máximo de un archivo de anotaciones cronológicas. Cuando se establece un tamaño máximo para el archivo de anotaciones cronológicas, el texto del archivo vuelve al principio; es decir, cuando el archivo alcanza el tamaño especificado, las entradas subsiguientes se anotarán al principio del archivo y se grabarán encima de las entradas de anotaciones cronológicas anteriores. No puede establecer el tamaño de archivo de anotaciones cronológicas en un valor que sea menor que el actual. Las entradas del archivo de anotaciones cronológicas llevarán la indicación de la hora, para que pueda indicar el orden en el que se han grabado.

    Cuanto más alto establezca el nivel de anotaciones, debería escoger con más cuidado el tamaño de archivo de anotaciones cronológicas. En el nivel 0, probablemente sea seguro dejar el tamaño de archivo de anotaciones cronológicas con el valor predeterminado de 1MB; no obstante, cuando realiza las anotaciones a nivel 3 y superior, limite el tamaño sin hacerlo demasiado pequeño para que resulte de utilidad.

    Cambio de las vías de acceso del archivo de anotaciones cronológicas

    De manera predeterminada, los archivos de anotaciones cronológicas generados por Load Balancer se almacenan en el directorio logs de la instalación de Load Balancer. Para cambiar esta vía de acceso, establezca la variable lb_logdir en el script dsserver.

    Sistemas AIX, HP-UX, Linux y Solaris: el script dsserver se encuentra en el directorio /usr/bin. En este script, la variable lb_logdir está establecida en el directorio predeterminado. Puede modificar esta variable para especificar su directorio de archivo de anotaciones cronológicas. Ejemplo:

    LB_LOGDIR=/víaAcceso/a/mis/anotaciones/

    Sistemas Windows: el archivo dsserver se encuentra en el directorio del sistema Windows C:\WINNT\SYSTEM32, para Windows 2003. En el archivo dsserver, la variable lb_logdir está establecida en el directorio predeterminado. Puede modificar esta variable para especificar su directorio de archivo de anotaciones cronológicas. Ejemplo:

    set LB_LOGDIR=c:\víaAcceso\a\mis\anotaciones\

    Para todos los sistemas operativos, asegúrese de que no haya espacios a ambos lados del signo igual y que la vía de acceso finaliza con una barra inclinada o invertida ("/" o "\") según sea adecuado.

    Anotaciones en binario

    Nota:
    Las anotaciones cronológicas binarias no se aplican al componente Site Selector.

    La característica de anotaciones cronológicas binarias de Load Balancer utiliza el mismo directorio de anotaciones cronológicas que los demás archivos de anotaciones cronológicas. Consulte el apartado Utilización del registro cronológico binario para analizar estadísticas de servidor.

    Para Cisco CSS Controller y Nortel Alteon Controller

    Puede establecer el nivel de anotaciones para definir la expansividad de los mensajes grabados en el archivo de anotaciones cronológicas. En el nivel 0, se anotan los errores y Load Balancer también anota las cabeceras y los registros de sucesos que suceden sólo una vez (por ejemplo, un mensaje sobre un asesor que se empieza a grabar en el archivo de anotaciones cronológicas del consultor). El nivel 1 incluye la información en curso y, así sucesivamente, con el nivel 5 incluyendo todos los mensajes producidos para ayudar a depurar un problema si es necesario. El valor predeterminado para los archivos de anotaciones cronológicas es 1.

    También puede establecer el tamaño máximo de un archivo de anotaciones cronológicas. Si establece un tamaño máximo para el archivo de anotaciones cronológicas, el archivo se envolverá; cuando el archivo alcance el tamaño especificado, las entradas subsiguientes se grabarán al principio del archivo, sobrescribiendo las entradas del archivo de anotaciones cronológicas anteriores. No puede establecer el tamaño de archivo de anotaciones cronológicas en un valor que sea menor que el actual. Las entradas del archivo de anotaciones cronológicas llevarán la indicación de la hora, para que pueda indicar el orden en el que se han grabado.

    Cuanto más alto establezca el nivel de anotaciones, debería escoger con más cuidado el tamaño de archivo de anotaciones cronológicas. En el nivel 0, probablemente sea seguro dejar el tamaño de archivo de anotaciones cronológicas con el valor predeterminado de 1MB; no obstante, cuando realiza las anotaciones a nivel 3 y superior, limite el tamaño sin hacerlo demasiado pequeño para que resulte de utilidad.

    Archivo de anotaciones cronológicas del controlador

    Cisco CSS Controller y Nortel Alteon Controller tienen anotaciones cronológicas como se detalla a continuación:

    A continuación figura un ejemplo de cómo configurar el nivel de anotaciones y el tamaño máximo de las anotaciones cronológicas para el archivo de anotaciones cronológicas del supervisor de métrica que anota las comunicaciones con agentes Metric Server:

    xxxcontrol metriccollector set IDconsultor:IDservicio:nombreMétrica
       loglevel x logsize y
    

    Cambio de las vías de acceso del archivo de anotaciones cronológicas

    De manera predeterminada, las anotaciones cronológicas generadas por los controladores se almacenarán en el directorio logs de la instalación del controlador. Para cambiar esta vía de acceso, establezca la variable xxx_logdir en el script xxxserver.

    Sistemas AIX, HP-UX, Linux y Solaris: el script xxxserver se encuentra en el directorio /usr/bin. En este script, la variable xxx_logdir está establecida en el directorio predeterminado. Puede modificar esta variable para especificar su directorio de archivo de anotaciones cronológicas. Ejemplo:

    xxx_LOGDIR=/víaAcceso/a/mis/anotaciones/

    Sistemas Windows: el archivo xxxserver se encuentra en el directorio del sistema Windows, normalmente C:\WINNT\SYSTEM32. En el archivo xxxserver, la variable xxx_logdir está establecida en el directorio predeterminado. Puede modificar esta variable para especificar su directorio de archivo de anotaciones cronológicas. Ejemplo:

    set xxx_LOGDIR=c:\víaAcceso\a\mis\anotaciones\

    Para todos los sistemas operativos, asegúrese de que no haya espacios a ambos lados del signo igual y que la vía de acceso finaliza con una barra inclinada o invertida ("/" o "\") según sea adecuado.

    Anotaciones en binario

    La característica de anotaciones cronológicas binarias de Load Balancer utiliza el mismo directorio de anotaciones cronológicas que los demás archivos de anotaciones cronológicas. Consulte el apartado Utilización del registro cronológico binario para analizar estadísticas de servidor.


    Utilización del componente Dispatcher

    En este apartado se describe cómo operar y gestionar el componente Dispatcher.

    Inicio y detención de Dispatcher

    Utilización del valor de tiempo de espera sin actividad

    Para Load Balancer, se considera que las conexiones están inactivas cuando no ha habido actividad en esa conexión durante el número de segundos especificado en el tiempo de espera sin actividad. Cuando se supere el número de segundos sin actividad, Load Balancer eliminará ese registro de conexión de sus tablas y se descartará el tráfico subsiguiente para esa conexión.

    A nivel de puerto, por ejemplo, puede especificar el valor de tiempo de espera sin actividad en el mandato dscontrol port set staletimeout.

    El tiempo de espera sin actividad se puede establecer a nivel de ejecutor, clúster y puerto. A nivel de ejecutor y de clúster, el valor predeterminado son 300 segundos y se filtra hasta el puerto. A nivel de puerto, el valor predeterminado depende del puerto. Algunos puertos bien definidos tienen valores distintos de tiempo de espera sin actividad. Por ejemplo, el puerto telnet 23 tiene un valor predeterminado de 259.200 segundos.

    Algunos servicios también pueden tener valores de tiempo de espera sin actividad propios. Por ejemplo, LDAP (Lightweight Directory Access Protocol) tiene un parámetro de configuración denominado idletimeout. Cuando se han superado idletimeout segundos, se forzará el cierre de una conexión de cliente desocupado. También se puede establecer idletimeout en 0, lo que significa que nunca se forzará el cierre de la conexión.

    Se pueden producir problemas de conectividad si el valor de tiempo de espera sin actividad de Load Balancer es menor que el valor de tiempo de espera del servicio. En el caso de LDAP, el valor de tiempo de espera sin actividad de Load Balancer se establece predeterminado en 300 segundos. Si no hay actividad en la conexión durante 300 segundos, Load Balancer eliminará el registro de conexión de sus tablas. Si el valor de idletimeout es mayor que 300 segundos (o está establecido en 0), el cliente todavía cree que tiene una conexión con el servidor. Cuando el cliente envíe paquetes, Load Balancer los descartará. Esto provocará que se cierre la comunicación de LDAP cuando se realice una petición al servidor. Para evitar este problema, establezca el idletimeout de LDAP en un valor que no sea cero, que sea igual o menor que el valor de tiempo de espera sin actividad de Load Balancer.

    Utilización del tiempo de espera de conexiones finalizadas y del tiempo de espera sin actividad con el fin de controlar la limpieza de registros de conexión

    Un cliente envía un paquete FIN después de que ha enviado todos sus paquetes, para que el servidor sepa que ha finalizado la transacción. Cuando Dispatcher recibe el paquete FIN, marca la transacción de estado activo a estado FIN. Cuando una transacción se marca como FIN, se puede borrar la memoria reservada para la conexión.

    Con el fin de mejorar el rendimiento de la asignación y reutilización del registro de conexión, utilice el mandato executor set fintimeout para controlar el período durante el cual Dispatcher conservará conexiones en el estado FIN, activas en las tablas de Dispatcher y aceptando tráfico. Cuando una conexión en el estado FIN supera el tiempo de espera de conexiones finalizadas, se eliminará de las tablas de Dispatcher y estará preparada para reutilizarse. Puede cambiar el tiempo de espera de FIN utilizando el mandato dscontrol executor set fincount.

    Utilice el mandato dscontrol executor set staletimeout con el fin de controlar el período durante el que Dispatcher debería conservar conexiones en el estado de establecidas, cuando no se haya visto tráfico activo en las tablas de Dispatcher ni aceptar tráfico. Consulte el apartado Utilización del valor de tiempo de espera sin actividad para obtener más información.

    GUI de informe -- Opción de menú Supervisar

    Se pueden mostrar distintos diagramas según la información del ejecutor y transmitirse al gestor. (La opción de menú Supervisar de la GUI requiere que la función de gestor esté en ejecución):

    Utilización de Simple Network Management Protocol con el componente Dispatcher

    Un sistema de gestión de red es un programa que se ejecuta continuamente y se utiliza para supervisar, reflejar el estado y controlar una red. El conocido protocolo SNMP (Protocolo simple de gestión de red) para comunicarse con dispositivos en red, es el estándar de gestión de red actual. Los dispositivos de red normalmente tienen un agente SNMP y uno o más subagentes. El agente SNMP se comunica con la estación de gestión de red o responde a las peticiones SNMP de línea de mandatos. El subagente SNMP recupera y actualiza datos y proporciona esos datos al agente SNMP para comunicarse de nuevo con el solicitante.

    Dispatcher proporciona una Management Information Base (ibmNetDispatcherMIB) SNMP y un subagente SNMP. Esto permite utilizar cualquier sistema de gestión de red (como Tivoli(R) NetView(R), Tivoli Distributed Monitoring o HP OpenView), para supervisar el estado, el rendimiento y la actividad de Dispatcher. Los datos MIB describen el Dispatcher que se va a gestionar y reflejan el estado actual de Dispatcher. MIB se instala en el subdirectorio ..lb/admin/MIB.

    Nota:
    MIB, ibmNetDispatcherMIB.02, no se cargará con el programa Tivoli NetView xnmloadmib2. Para corregir este problema, ponga como comentario la sección NOTIFICATION-GROUP del MIB. Es decir, inserte "- -" delante de la línea "indMibNotifications Group NOTIFICATION-GROUP" y de las 6 líneas que siguen.

    El sistema de gestión de red utiliza mandatos GET SNMP para detectar valores de MIB en otras máquinas. Luego el sistema puede notificarle si se han superado los valores de umbral especificados. Usted puede entonces influir en el rendimiento de Dispatcher si modifica los datos de configuración de este componente para ajustar de forma activa o corregir problemas de Dispatcher antes de que se conviertan en caídas de Dispatcher o del servidor Web.

    Mandatos y protocolo SNMP

    El sistema suele proporcionar un agente SNMP para cada estación de gestión de red. El usuario envía un mandato GET al agente SNMP. A cambio, este agente SNMP envía un mandato GET para recuperar los valores de la variable MIB especificada de un subagente encargado de esas variables MIB.

    Dispatcher proporciona un subagente que actualiza y recupera datos MIB. El subagente responde con los datos MIB adecuados cuando el agente SNMP envía un mandato GET. El agente SNMP comunica los datos a la estación de gestión de red. La estación de gestión de red puede notificarle si se han superado los valores de umbral especificados.

    El soporte SNMP de Dispatcher incluye un subagente SNMP que utiliza la posibilidad DPI(R) (Distributed Program Interface). DPI es una interfaz entre un agente SNMP y sus subagentes. El sistema operativo Windows utiliza el agente de ampliación de Windows como una interfaz entre el agente SNMP y sus subagentes.

    Habilitación de SNMP en sistemas AIX, HP-UX, Linux y Solaris

    Figura 40. Mandatos SNMP para sistemas Linux y UNIX

    Mandatos SNMP y sistema de servidor para sistemas Linux y UNIX

    Los sistemas AIX proporcionan un agente SNMP que utiliza el protocolo SMUX (SNMP Multiplexer) y proporciona DPID2, que es un ejecutable adicional que funciona como un conversor entre DPI y SMUX.

    En sistemas HP-UX, debe obtener un agente SNMP que sea compatible con SMUX puesto que HP-UX no proporciona ninguno. Load Balancer proporciona DPID2 para sistemas HP-UX.

    Los sistemas Linux proporcionan un agente SNMP que utiliza SMUX. La mayoría de las versiones Linux (por ejemplo, Red Hat) vienen con un paquete UCD SNMP. UCD SNMP versión 4.1 o posteriores tienen agentes compatibles con SMUX. Load Balancer proporciona DPID2 para sistemas Linux.

    Nota:
    En sistemas SuSE Linux, debe obtener un agente SNMP que sea compatible con SMUX puesto que SuSE no proporciona ninguno.

    En sistemas Solaris, debe obtener un agente SNMP que sea compatible con SMUX puesto que Solaris no proporciona ninguno. Load Balancer proporciona DPID2 para sistemas Solaris en el directorio /opt/ibm/edge/lb/servers/samples/SNMP.

    El agente DPI debe ejecutarse como un usuario root. Antes de ejecutar el daemon de DPID2, actualice el archivo /etc/snmpd.peers y /etc/snmpd.conf como se detalla a continuación:

    En sistemas AIX y Solaris:

    En sistemas Linux:

    Habilitar SNMP en sistemas HP-UX

    Para instalar el soporte de SNMP de HP-UX:

    1. Si no tiene instalada una versión de GNU SED, obténgala del sitio Web de HP, http://www.hp.com.
    2. Obtenga ucd-snmp-4.2.4.tar.gz de la siguiente página Web, http://sourceforge.net/project/showfiles.php?group_id=12694.
    3. Asegúrese de que tiene instalado "gcc" y "gmake" o "make" en su máquina. Si no, deberá instalarlos.
    4. Descomprima (unzip) el archivo ucd-snmp-4.2.4.tar.gz file y, después, desempaquete (untar) todos los archivos fuentes en el directorio.
    5. Vaya al directorio donde se guardan los archivos fuentes y haga lo siguiente:
      1. ejecute ./configure --with-mib-modules=smux
      2. make
      3. Ejecute los dos mandatos siguientes como root:
        1. umask 022
        2. make install
      4. export SNMPCONFPATH=/etc/snmp
      5. start /usr/local/sbin/snmpd -s (Esto inicia el agente SNMP)
      6. start dpid2 (Esto inicia el conversor DPI)
      7. dscontrol subagent start (Esto inicia el subagente Dispatcher)

    Habilitar SNMP en sistemas SuSE Linux

    Para utilizar SNMP de Load Balancer con sistemas SuSE Linux, debe realizar lo siguiente:

    1. Quite el ucd-snmp rpm instalado de la máquina SuSE.
    2. Obtenga ucd-snmp-4.2.4.tar.gz de http://sourceforge.net/project/showfiles.php?group_id=12694 .
    3. Asegúrese de que tiene instalado "gcc" y "gmake o make" en la máquina SuSE (debe instalarlos si no están ahí).
    4. Descomprima (unzip) el archivo ucd-snmp-4.2.4.tar.gz file y, después, desempaquete (untar) todos los archivos fuentes en el directorio.
    5. Vaya al directorio donde se guardan los archivos fuentes y haga lo siguiente:
      1. ejecute ./configure --with-mib-modules=smux
      2. make
      3. Ejecute los dos mandatos siguientes como root:
        1. umask 022 #
        2. make install
      4. export SNMPCONFPATH=/etc/snmp
      5. start /usr/local/sbin/snmpd -s
      6. start dpid2

    Renueve snmpd (si aún está en ejecución) para que vuelva a leer el archivo snmpd.conf:

    refresh -s snmpd
    

    Inicie el DPID SMUX del igual:

    dpid2
    

    Los daemons deben iniciarse en el orden siguiente:

    1. Agente SNMP
    2. Conversor DPI
    3. Subagente Dispatcher

    Habilitación de SNMP en sistemas Solaris

    Para instalar el soporte de SNMP de Solaris:

    1. Elimine el daemon de Solaris SNMP en ejecución (snmpdx y snmpXdmid).
    2. Renombre archivos como se detalla a continuación:

      /etc/rc3.d/S76snmpdx por /etc/rc3.d/K76snmpdx

      /etc/rc3.d/S77dmi por /etc/rc3.d/K77dmi

    3. Bájese los paquetes siguientes de http://www.sunfreeware.com/:
    4. Instale los paquetes bajados utilizando pkgadd.
    5. Bájese ucd-snmp-4.2.3-solaris8.tar.gz de http://sourceforge.net/project/showfiles.php?group_id=12694
    6. Ejecute Gunzip y untar de ucd-snmp-4.2.3-solaris8.tar.gz en el directorio raíz (/)
    7. Emita estos mandatos:

      export LD_LIBRARY_PATH=$LD_LIBRARY_PATH: /usr/local/lib:/usr/local/ssl/lib:/usr/lib

      export PATH=/usr/local/sbin:/usr/local/bin:$PATH

      export SNMPCONFPATH =/etc/snmp

      export MIBDIRS=/usr/local/share/snmp/mibs

      cp /opt/ibm/edge/lb/servers/samples/SNMP/dpid2 /usr/local/sbin/dpid2

    8. Si todavía no existe, cree /etc/snmpd.peers. Inserte lo siguiente en snmpd.peers:
      "dpid2" 1.3.6.1.4.1.2.3.1.2.2.1.1.2     "dpid_password"
      
    9. Si todavía no existe, cree /etc/snmp/snmpd.conf. Inserte lo siguiente en snmpd.conf:
      smuxpeer        1.3.6.1.4.1.2.3.1.2.2.1.1.2     dpid_password
      
    10. Inicie /usr/local/sbin/snmpd.
    11. Inicie /usr/local/sbin/dpid2.

    Notas:

    1. Los paquetes siguientes están en formato de paquete.

      En el sitio Web http://sunfreeware.com/, los nombres tienen una extensión de .gz, por lo tanto no utilice gunzip/untar con éstos. En su lugar, utilice pkgadd nombrePaquete.

    2. Cuando añade la entrada smuxpeer en /etc/snmp/snmpd.conf, asegúrese de que no se incluye ningún espacio en la serie dpid_password.

    3. La característica SNMP de Load Balancer se prueba con ucd-snmp para smux versión 4.2.3. Futuros releases de ucd-snmp con smux deberían funcionar con una configuración similar.

    Habilitación de SNMP en el sistema operativo Windows

    Para instalar el soporte de SNMP de Windows:

    1. Pulse Inicio > Configuración (Windows 2000) > Panel de control > Agregar o quitar programas.
    2. Pulse Agregar o quitar componentes de Windows.
    3. En el Asistente para componentes de Windows, pulse Herramientas de administración y supervisión (pero no seleccione ni anule la selección de este recuadro de selección), luego pulse Detalles
    4. Active el recuadro de selección SNMP (Protocolo simple de gestión de red) y pulse Aceptar.
    5. Pulse Siguiente.

    Provisión de un nombre de comunidad para SNMP

    Con el ejecutor en ejecución, utilice el mandato dscontrol subagent start [nombrecomunidad] para definir el nombre de comunidad utilizado entre el agente de extensión del SO Windows y el agente SNMP.

    IMPORTANTE: en Windows 2003, de manera predeterminada SNMP no responde a ningún nombre de comunidad presentado. En tal caso, el subagente SNMP no responderá a ninguna petición SNMP. Para asegurarse de que el subagente SNMP responderá al nombre de comunidad, debe establecer las propiedades del servicio SNMP con el nombre de comunidad adecuado y el sistema o los hosts de destino. Configure las propiedades de seguridad SNMP como se detalla a continuación:

    1. Abra Administración de equipos
    2. En el árbol de la consola, pulse Servicios
    3. En el panel de detalles, pulse Servicio SNMP
    4. En el menú de acción, pulse Propiedades
    5. En la pestaña Seguridad, bajo Nombres de comunidad aceptados, pulse Agregar
    6. Bajo Derechos de comunidad, seleccione un nivel de permiso para que este host procese peticiones SNMP de la comunidad seleccionada (al menos el permiso de Sólo lectura)
    7. En Nombre de la comunidad, escriba un nombre de comunidad sensible a mayúsculas y minúsculas, el mismo que ha proporcionado al subagente de Load Balancer (nombre de comunidad predeterminado: public) y pulse Agregar
    8. Especifique si va a aceptar o no paquetes SNMP de un host. Seleccione una de estas opciones:
    9. Reinicie el Servicio SNMP para que el cambio entre en vigor

    Condiciones de excepción

    SNMP se comunica enviando y recibiendo condiciones de excepción, mensajes enviados por dispositivos gestionados para informar de condiciones de excepción o de la aparición de sucesos significativos, como un umbral alcanzado.

    El subagente utiliza estas condiciones de excepción:

    La condición de excepción indHighAvailStatus anuncia que el valor de la variable de estado de alta disponibilidad (hasState) ha cambiado. Los valores posibles de hasState son:

    -idle
    Esta máquina equilibra la carga y no intenta establecer contacto con su Dispatcher asociado.

    -listen
    Acaba de iniciarse la alta disponibilidad y Dispatcher está a la escucha de su asociado.

    -active
    Esta máquina está equilibrando la carga.

    -standby
    Esta máquina está supervisando la máquina activa.

    -preempt
    Esta máquina está en un estado transitorio durante el cambio de primaria a reserva.

    -elect
    Dispatcher está negociando con su asociado respecto a cuál será la primaria o la reserva.

    -no_exec
    El ejecutor no está en ejecución

    La condición de excepción indSrvrGoneDown anuncia que el peso del servidor especificado por la parte csID (ID de clúster), psNum (número de puerto) y ssID (ID de servidor) del identificador de objeto ha alcanzado cero. El último número conocido de conexiones activas del servidor se envía en la condición de excepción. Esta condición de excepción indica que, en lo que puede determinar Dispatcher, se ha quedado inactivo el servidor especificado.

    La condición de excepción indDOSAttack indica que numhalfopen, el número de conexiones medio abiertas que constan sólo de paquetes SYN, ha superado el umbral maxhhalfopen del puerto especificado por la parte csID (ID de clúster) y psNum (número de puerto) del identificador de objeto. El número de servidores configurados en el puerto se envía en la condición de excepción. Esta condición de excepción indica que Load Balancer puede estar experimentando un ataque para rechazo de servicio.

    La condición de excepción indDOSAttackDone indica que numhalfopen, el número de conexiones medio abiertas que constan sólo de paquetes SYN, ha caído por debajo del umbral maxhalfopen del puerto especificado por la parte csID y psNum del identificador de objeto. El número de servidores configurados en el puerto se envía en la condición de excepción. Cuando Load Balancer determina que ha finalizado el posible ataque para rechazo de servicio, se enviará esta condición de excepción después de que se envíe una condición de excepción indDOSAttack.

    Para sistemas Linux y UNIX, debido a una limitación en la API de SMUX, el identificador de empresa del que se informa en condiciones de excepción del subagente ibmNetDispatcher podría ser el identificador de empresa de dpid2, en lugar del identificador de empresa de ibmNetDispatcher, 1.3.6.1.4.1.2.6.144. No obstante, los programas de utilidad de gestión de SNMP podrán determinar el origen de la condición de excepción porque los datos contendrán un identificador de objeto desde dentro del MIB de ibmNetDispatcher.

    Activación y desactivación del soporte de SNMP desde el mandato dscontrol

    El mandato dscontrol subagent start activa el soporte de SNMP. El mandato dscontrol subagent stop desactiva el soporte de SNMP.

    Si desea más información sobre el mandato dscontrol, consulte el apartado dscontrol subagent -- configurar subagente SNMP.

    Utilización de ipchains o tablas ip para rechazar todo el tráfico con el fin de proteger la máquina de Load Balancer (sistemas Linux)

    En el kernel Linux hay incorporado un recurso de cortafuegos llamado ipchains. Cuando Load Balancer e ipchains se ejecutan a la vez, los paquetes los detecta primero Load Balancer y luego los detecta ipchains. Esto permite el uso de ipchains para proteger una máquina de Load Balancer Linux, que podría ser, por ejemplo, una máquina de Load Balancer que se utiliza para equilibrar la carga de los cortafuegos.

    Cuando se configuran ipchains o tablas ip restringidas completamente (no se permite el tráfico de entrada ni de salida), la parte de reenvío de paquetes de Load Balancer sigue funcionando normalmente.

    Recuerde que no pueden utilizarse ipchains y tablas ip para filtrar el tráfico de entrada antes de que se equilibre de carga.

    Debe permitirse algún tráfico adicional para que todo el Load Balancer funcione correctamente. Algunos ejemplos de esta comunicación son:

    En general, una estrategia de ipchains adecuada para las máquinas Load Balancer es no permitir todo el tráfico, excepto que sea hacia o desde los servidores finales, el Load Balancer de alta disponibilidad de asociados, cualquier destino de alcance o cualquier host de configuración.

    No se recomienda activar tablas ip cuando se ejecuta Load Balancer en el kernel Linux versión 2.4.10.x. La activación en esta versión del kernel Linux puede provocar con el tiempo una disminución del rendimiento.

    Para desactivar las tablas ip, enumere los módulos (lsmod) con el fin de comprobar qué módulo utilizan ip_tables e ip_conntrack, luego elimínelas emitiendo rmmod ip_tables y rmmod ip_conntrack. Cuando reinicie la máquina estos módulos se añadirán de nuevo, de modo que tendrá que repetir este paso cada vez que reinicie la máquina.

    Para obtener más información, consulte el apartado Problema: en sistemas Linux, iptables puede impedir el direccionamiento de paquetes.


    Utilización del componente CBR (Content Based Routing)

    En este apartado se describe cómo operar y gestionar el componente CBR de Load Balancer.

    Nota:
    El componente CBR (Content Based Routing) está disponible en todas las plataformas admitidas excepto donde se ejecuta una JVM de 64 bits. De modo alternativo, puede utilizar el método de reenvío cbr del componente Dispatcher de Load Balancer para proporcionar el direccionamiento basado en contenido sin utilizar Caching Proxy. Consulte el apartado Direccionamiento basado en contenido de Dispatcher (método de reenvío cbr) para obtener más información.

    Inicio y detención de CBR

    CBR y Caching Proxy colaboran utilizando la API del plug-in de Caching Proxy para gestionar peticiones HTTP y HTTPS (SSL). Caching Proxy debe ejecutarse en la misma máquina para que CBR comience a equilibrar la carga de los servidores. Configure CBR y Caching Proxy como se describe en el apartado Ejemplo de configuración CBR.

    Control de CBR

    Después de iniciar CBR, puede controlarlo utilizando uno de estos métodos:

    Utilización de archivos de anotaciones cronológicas de CBR

    Los archivos de anotaciones cronológicas utilizados por CBR son similares a los que se utilizan en Dispatcher. Para obtener más información, consulte el apartado Utilización de los registros de Load Balancer.

    Nota:
    En releases anteriores, para CBR podía cambiar la vía de acceso al directorio de archivos de anotaciones cronológicas en el archivo de configuración de Caching Proxy. Ahora puede cambiar la vía de acceso al directorio donde se almacena el archivo de anotaciones cronológicas en el archivo cbrserver. Consulte el apartado Cambio de las vías de acceso del archivo de anotaciones cronológicas.

    Utilización del componente Site Selector

    Inicio y detención de Site Selector

    Control de Site Selector

    Después de iniciar Site Selector, puede controlarlo utilizando uno de estos métodos:

    Utilización de archivos de anotaciones cronológicas de Site Selector

    Los archivos de anotaciones cronológicas utilizados por Site Selector son similares a los que se utilizan en Dispatcher. Para obtener una descripción más extensa, consulte el apartado Utilización de los registros de Load Balancer.


    Utilización del componente Cisco CSS Controller

    Inicio y detención de Cisco CSS Controller

    1. Escriba ccoserver en la línea de mandatos para iniciar Cisco CSS Controller.
    2. Escriba ccoserver stop en la línea de mandatos para detener Cisco CSS Controller.

    Control de Cisco CSS Controller

    Después de iniciar Cisco CSS Controller, puede controlarlo utilizando uno de estos métodos:

    Utilización de de archivos de anotaciones cronológicas de Cisco CSS Controller

    Los archivos de anotaciones cronológicas utilizados por Cisco CSS Controller son similares a los que se utilizan en Dispatcher. Para obtener una descripción más extensa, consulte el apartado Utilización de los registros de Load Balancer.


    Utilización del componente Nortel Alteon Controller

    Inicio y detención de Nortel Alteon Controller

    1. Escriba nalserver en la línea de mandatos para iniciar Nortel Alteon Controller.
    2. Escriba nalserver stop en la línea de mandatos para detener Nortel Alteon Controller.

    Control de Nortel Alteon Controller

    Después de iniciar Nortel Alteon Controller, puede controlarlo utilizando uno de estos métodos:

    Utilización de de archivos de anotaciones cronológicas de Nortel Alteon Controller

    Los archivos de anotaciones cronológicas utilizados por Nortel Alteon Controller son similares a los que se utilizan en Dispatcher. Para obtener una descripción más extensa, consulte el apartado Utilización de los registros de Load Balancer.


    Utilización del componente Metric Server

    Inicio y detención de Metric Server

    Metric Server proporciona información de carga del servidor a Load Balancer. Metric Server reside en cada uno de los servidores de los que se está equilibrando la carga.

    Sistemas Linux y UNIX:

    Sistemas Windows:

    Pulse Inicio > Configuración (en Windows 2000) > Panel de control > Herramientas administrativas > Servicios. Pulse con el botón derecho del ratón en IBM Metric Server y seleccione Iniciar. Para detener el servicio, efectúe los mismos pasos y seleccione Detener.

    Utilización de archivos de anotaciones cronológicas de Metric Server

    Cambie el nivel de anotaciones en el script de inicio de Metric Server. Puede especificar un intervalo de nivel de anotaciones de 0 a 5, similar al intervalo de nivel de anotaciones de los archivos de anotaciones cronológicas de Load Balancer. Esto generará un archivo de anotaciones cronológicas agente en el directorio ...ms/logs.


    Resolución de problemas

    Este capítulo ayuda a detectar y solucionar problemas asociados a Load Balancer.


    Recopilación de información para la resolución de problemas

    Utilice la información de este apartado para recopilar los datos que requiere el servicio de IBM. La información se divide en los temas siguientes.

    Información general (siempre es necesaria)

    Sólo para el componente Dispatcher, hay una herramienta de determinación de problemas que recopila automáticamente datos específicos del sistema operativo y archivos de configuración específicos del componente. Para ejecutar esta herramienta, escriba lbpd en el directorio adecuado:

    En sistemas Linux y UNIX: /opt/ibm/edge/lb/servers/bin/

    En sistemas Windows: C:Archivos de programa\IBM\edge\lb\servers\bin

    La herramienta de determinación de problemas empaqueta los datos en archivos como se detalla a continuación:

    En sistemas Linux y UNIX: /opt/ibm/edge/lb/lbpmr.tar.Z

    En sistemas Windows: C:\Archivos de programa\IBM\edge\lb\lbpmr.zip

    Nota:
    Debe tener un programa de utilidad de compresión zip de línea de mandatos para sistemas Windows.

    Antes de llamar al servicio de IBM, tenga a mano la información siguiente.

    Problemas de alta disponibilidad (HA)

    Recopile la siguiente información necesaria de problemas en entornos de HA.

    Problemas del asesor

    Recopile esta información necesaria para problemas del asesor; por ejemplo, cuando los asesores por error marcan los servidores como inactivos.

    Nota:
    Cuando escribe asesores personalizados, resulta de utilidad utilizar ADVLOG(nivelAnotaciones,mensaje) para verificar que el asesor funciona correctamente.

    La llamada a ADVLOG imprime sentencias al archivo de anotaciones cronológicas de asesores cuando el nivel es inferior que el nivel de anotaciones asociado a los asesores. Un nivel de anotaciones de 0 provocará que siempre se grabe la sentencia. No puede utilizar ADVLOG desde el constructor. El archivo de anotaciones cronológicas no se crea hasta inmediatamente después de que el constructor haya terminado porque el nombre de archivo de anotaciones cronológicas depende de la información que está establecida en el constructor.

    Hay otro modo de depurar el asesor personalizado que evitará esta limitación. Puede utilizar sentencias System.out.println(mensaje) para imprimir mensajes a una ventana. Edite el script dsserver y cambie javaw por java para que las sentencias de impresión aparezcan en la ventana. La ventana utilizada para iniciar dsserver debe mantenerse abierta para que aparezcan las impresiones. Si utiliza plataformas Windows, debe dejar de ejecutar el Dispatcher como un servicio e iniciarlo manualmente desde una ventana para visualizar los mensajes.

    Consulte el manual Guía de programación de Edge Components para obtener más información sobre ADVLOG.

    Problemas de CBR (Content Based Routing)

    Recopile la siguiente información necesaria de problemas de CBR (Content Based Routing).

    No se puede acceder al clúster

    Si no se puede acceder al clúster, quizá ninguna de las máquinas de Load Balancer haya creado un alias del clúster. Para determinar qué máquina posee el clúster:

    1. En la misma subred y no en una máquina o servidor de Load Balancer:
      ping clúster
      arp -a
      
      Si utiliza los métodos de reenvío nat o cbr de Dispatcher, ejecute el mandato ping de la dirección de retorno también.
    2. Repase la salida de arp y compare la dirección MAC (dirección hexadecimal de 16 dígitos) con una de las salidas de netstat -ni para determinar qué máquina posee físicamente el clúster.
    3. Utilice estos mandatos para interpretar la salida de las dos máquinas para comprobar si las dos tienen la dirección del clúster.

      En sistemas AIX y HP-UX: netstat -ni

      En sistemas Linux y Solaris: ifconfig -a

      En sistemas Windows: ipconfig /all

    Si no obtiene una respuesta del mandato ping y no utiliza ULB, puede que ninguna máquina haya creado el alias de la dirección IP del clúster para su interfaz; por ejemplo, en0, tr0, etc.

    Todo lo demás no funciona

    Si no puede solucionar problemas de direccionamiento y todo lo demás no funciona, emita el mandato siguiente para ejecutar un rastreo en el tráfico de red:

    También puede aumentar distintos niveles de anotaciones (por ejemplo, el archivo de anotaciones cronológicas del gestor o del asesor, etc.) e investigar su salida.

    Actualizaciones

    Para identificar un problema que ya se ha corregido en un fix pack de release de servicio o en un parche, compruebe las actualizaciones. Para obtener una lista de defectos de Edge Components corregidos, consulte la página de soporte del sitio Web de WebSphere Application Server: http://www.ibm.com/software/webservers/appserv/was/support/. Desde la página de soporte, siga el enlace al sitio de descarga del servicio de corrección.

    Código Java

    Se instalará la versión correcta de Java como parte de la instalación de Load Balancer.

    Enlaces de utilidad

    Consulte el apartado Información de consulta para obtener enlaces a las páginas Web de soporte y de biblioteca. La página Web de soporte contiene un enlace a la información de autoayuda a modo de Notas técnicas.


    Tablas de resolución de problemas

    Consulte lo siguiente para obtener:


    Tabla 17. Tabla de resolución de problemas de Dispatcher

    Síntoma Causa posible Vaya a...
    Dispatcher no se ejecuta correctamente Números de puerto en conflicto Comprobación de los números de puerto de Dispatcher
    Se ha configurado un servidor con ubicación compartida y no responderá a peticiones de equilibrio de carga Dirección incorrecta o en conflicto con otra Problema: no responderán Dispatcher y el servidor
    Conexiones de máquinas cliente no atendidas o que han superado el tiempo de espera
    • Configuración de direccionamiento incorrecta
    • NIC no ha creado un alias para la dirección del clúster
    • El servidor no tiene un dispositivo de bucle de retorno con alias para la dirección del clúster
    • Ruta adicional no suprimida
    • No se ha definido un puerto para cada clúster

    Problema: no se equilibran las peticiones de Dispatcher
    Máquinas cliente no atendidas o que han superado el tiempo de espera No funciona la alta disponibilidad Problema: la función de alta disponibilidad de Dispatcher no funciona
    No se han podido añadir pulsos (plataformas Windows) La dirección de origen no se ha configurado en un adaptador Problema: no se han podido añadir pulsos (plataforma Windows)
    El servidor no atiende las peticiones (plataforma Windows) Se ha creado una ruta adicional en la tabla de direccionamiento Problema: rutas adicionales (Windows 2000)
    Los asesores no funcionan correctamente con el área amplia Los asesores no se ejecutan en máquinas remotas Problema: los asesores no funcionan correctamente
    Dispatcher, Microsoft IIS y SSL no funcionan o no continuarán No se han podido enviar datos cifrados entre protocolos Problema: Dispatcher, Microsoft IIS y SSL no funcionan (plataforma Windows)
    Conexión con la máquina remota rechazada Todavía se utiliza la versión anterior de las claves Problema: conexión de Dispatcher con una máquina remota
    El mandato dscontrol o lbadmin ha dado un error e indica el mensaje "El servidor no responde" o "No es posible acceder al servidor RMI"
    1. Los mandatos dan un error debido a una pila con SOCKS. O porque no se inicia dsserver
    2. No se han establecido correctamente los puertos RMI
    3. El archivo de host tiene un host local incorrecto

    Problema: el mandato dscontrol o lbadmin da un error
    Se produce el mensaje de error "No se puede encontrar el archivo..." cuando se ejecuta Netscape como el navegador predeterminado para consultar la ayuda en línea (plataforma Windows) Valor incorrecto para la asociación de archivo HTML Problema: aparece el mensaje de error "No se puede encontrar el archivo..." al intentar consultar la ayuda en línea (plataforma Windows)
    La interfaz gráfica de usuario no se inicia correctamente Espacio de paginación insuficiente Problema: la GUI (interfaz gráfica de usuario) no se inicia correctamente
    Error al ejecutar Dispatcher con Caching Proxy instalado Dependencia de archivos de Caching Proxy Problema: error al ejecutar Dispatcher con Caching Proxy instalado
    La interfaz gráfica de usuario no se muestra correctamente. La resolución es incorrecta. Problema: la GUI (interfaz gráfica de usuario) no se muestra correctamente
    Los paneles de ayuda a veces desaparecen detrás de otras ventanas Limitación de Java Problema: en la plataforma Windows, las ventanas de ayuda a veces desaparecen detrás de otras ventanas abiertas
    Load Balancer no puede procesar y reenviar una trama Se necesita una dirección MAC única para cada NIC Problema: Load Balancer no puede procesar y reenviar una trama
    Aparece una pantalla azul Tarjeta de red no instalada ni configurada Problema: se muestra una pantalla azul cuando se inicia el ejecutor de Load Balancer
    La vía de acceso al descubrimiento impide el tráfico de retorno Se ha creado un alias del clúster en el bucle de retorno Problema: la vía de acceso al descubrimiento impide el tráfico de retorno con Load Balancer
    No funciona la alta disponibilidad de la modalidad de área amplia de Load Balancer. El Dispatcher remoto debe definirse como un servidor de un clúster en el Dispatcher local Problema: no funciona la alta disponibilidad en la modalidad de área amplia de Load Balancer
    Se cierra la comunicación de la GUI (o tiene un comportamiento inesperado) cuando se intenta cargar un archivo de configuración de gran tamaño. Java no tiene acceso a suficiente memoria para gestionar un cambio de tan gran tamaño en la GUI Problema: se cierra la comunicación de la GUI (o tiene un comportamiento inesperado) cuando se intenta cargar un archivo de configuración de gran tamaño
    Las direcciones IP no se resuelven correctamente en la conexión remota Cuando se utiliza un cliente remoto en una implementación de SOCKS segura, los nombres de dominio o de host plenamente cualificados quizá no se resuelvan con la dirección IP correcta Problema: las direcciones IP no se resuelven correctamente en la conexión remota
    La interfaz de Load Balancer coreana muestra fonts solapados o no deseados en sistemas AIX y Linux Se deben cambiar los fonts predeterminados Problema: la interfaz de Load Balancer coreana muestra fonts solapados o no deseados en sistemas AIX y Linux
    En sistemas Windows, después de crear un alias del adaptador MS Loopback, cuando emita determinados mandatos como hostname, el sistema operativo responderá incorrectamente con la dirección del alias En la lista de conexiones de red, no se enumera el alias recién añadido antes de la dirección local Problema: en sistemas Windows, se devuelve una dirección del alias en lugar de la dirección local cuando se emiten mandatos como hostname
    Comportamiento de la GUI inesperado cuando se utiliza la plataforma Windows con la tarjeta de vídeo Matrox AGP Se produce un problema cuando se utilizan tarjetas de vídeo Matrox AGP al ejecutar la GUI de Load Balancer Problema: en la plataforma Windows, se produce un comportamiento de la GUI inesperado al utilizar tarjetas de vídeo Matrox AGP
    Se produce un comportamiento inesperado, por ejemplo, se cierra la comunicación del sistema, cuando se ejecuta "rmmod ibmlb" en sistemas Linux Se produce un problema cuando se elimina manualmente el módulo kernel de Load Balancer (ibmlb). Problema: comportamiento inesperado al ejecutar rmmod ibmlb (sistemas Linux)
    Tiempo de respuesta lento cuando se ejecutan mandatos en la máquina de Dispatcher El tiempo de respuesta lento puede deberse a una sobrecarga de la máquina por un alto volumen de tráfico del cliente Problema: tiempo de respuesta lento cuando se ejecutan mandatos en la máquina de Dispatcher
    Para el método de reenvío mac de Dispatcher, el asesor SSL o HTTPS no registra las cargas del servidor Se produce el problema porque la aplicación servidor SSL no se ha configurado con la dirección IP del clúster Problema: el asesor SSL o HTTPS no registra cargas del servidor (cuando se utiliza el reenvío mac)
    Se produce una desconexión del host cuando se utiliza la administración Web remota mediante Netscape Se producirá una desconexión del host cuando se cambie el tamaño de la ventana del navegador Problema: se produce una desconexión del host si se cambia el tamaño de la ventana del navegador Netscape cuando se utiliza la administración Web
    Está habilitada la agrupación de sockets y el servidor Web se enlaza a 0.0.0.0 Configure el servidor IIS de Microsoft para que sea específico del enlace Problema: está habilitada la agrupación de sockets y el servidor Web se enlaza a 0.0.0.0
    En la plataforma Windows, aparecen en el indicador de mandatos caracteres nacionales Latin-1 dañados Cambie las propiedades de font de la ventana de indicador de mandatos Problema: en sistemas Windows, aparecen caracteres nacionales Latin-1 dañados en la ventana de indicador de mandatos
    En la plataforma HP-UX, aparece este mensaje: java.lang.OutOfMemoryError unable to create new native thread (java.lang.OutOfMemoryError no se ha podido crear una nueva hebra nativa) Algunas instalaciones de HP-UX predeterminadas permiten 64 hebras por proceso. Esto es insuficiente. Problema: en HP-UX, se produce un error de falta de memoria/hebra de Java
    En la plataforma Windows, los asesores y los destinos de alcance marcan como inactivos todos los servidores No está inhabilitada Task Offload (Descarga de tareas) o quizá tenga que habilitarse ICMP. Problema: en los sistemas Windows, los asesores y los destinos de alcance marcan como inactivos todos los servidores
    En la plataforma Windows, se produce un problema al resolver la dirección IP con nombre de host cuando se configura más de una dirección con un adaptador La dirección IP que desea como nombre de host debe aparecer primero en el registro. Problema: en la plataforma Windows, se resuelve la dirección IP con el nombre de host cuando se ha configurado más de una dirección con el adaptador
    En la plataforma Windows, los asesores no funcionan en una configuración de alta disponibilidad después de una caída de la red Cuando el sistema detecta una caída de la red, borra la memoria caché ARP (Address Resolution Protocol) Problema: en sistemas Windows, después de una caída de la red, los asesores no funcionan en una configuración de alta disponibilidad
    En sistemas Linux, el mandato "IP address add" y varios alias de bucle de retorno del clúster son incompatibles Cuando cree alias para más de una dirección en el dispositivo de bucle de retorno, debería utilizar el mandato ifconfig, no ip address add Problema: en sistemas Linux, no utilice el mandato IP address add cuando cree un alias de varios clústeres en el dispositivo de bucle de retorno
    Aparece el mensaje de error: "dirección del direccionador no especificada o no válida para el método del puerto" al intentar añadir un servidor Repase la lista de comprobación de información para determinar el problema que se ha producido al añadir un servidor Problema: mensaje de error Dirección del direccionador no especificada o no válida para el método del puerto
    En sistemas Solaris, los procesos de Load Balancer finalizan cuando sale de la ventana de la sesión de terminal desde la que se han iniciado Utilice el mandato nohup para impedir que los procesos que ha iniciado reciban una señal de cierre de comunicación cuando sale de la sesión de terminal. Problema: en sistemas Solaris, los procesos de Load Balancer finalizan cuando sale de la ventana de terminal desde la que se han iniciado
    Se produce una ralentización cuando se cargan configuraciones de Load Balancer El retardo puede deberse a llamadas al Sistema de nombres de dominio (DNS) que se realizan para resolver y verificar la dirección de servidor. Problema: Se ha producido un retardo al cargar una configuración de Load Balancer
    En sistemas Windows, aparece este mensaje de error: Hay un conflicto de dirección IP con otro sistema en la red Si se configura la alta disponibilidad, podrían configurarse direcciones del clúster en las dos máquinas por un breve período lo que produce que aparezca este mensaje de error. Problema: en sistemas Windows, aparece un mensaje de error de conflicto de dirección IP
    Las dos máquinas, primaria y de reserva, están activas en una configuración de alta disponibilidad Este problema podría producirse cuando no se ejecutan los scripts go en alguna de las máquinas primaria o de reserva. Problema: las dos máquinas, primaria y de reserva, están activas en una configuración de alta disponibilidad
    No se pueden realizar las peticiones del cliente cuando Dispatcher intenta devolver respuestas de páginas de gran tamaño Las peticiones del cliente que producen unas respuestas de páginas de gran tamaño superan el tiempo de espera si la unidad de transmisión máxima (MTU) no se establece correctamente en la máquina de Dispatcher cuando se utiliza el reenvío nat o cbr. Problema: no se pueden realizar las peticiones del cliente cuando el sistema intenta devolver respuestas de páginas de gran tamaño
    En sistemas Windows, se produce el error "el servidor no responde" cuando se emite un mandato dscontrol o lbadmin Cuando existe más de una dirección IP en un sistema Windows y el archivo de host no especifica la dirección que se va a asociar al nombre de host. Problema: en sistemas Windows, se produce el error El servidor no responde cuando se emite dscontrol o lbadmin
    Es posible que las máquinas de Dispatcher de alta disponibilidad no se puedan sincronizar en Linux para S/390 en dispositivos qeth Cuando utiliza la característica de alta disponibilidad en Linux para S/390 con el controlador de red qeth, puede que los Dispatcher activo y en espera no se sincronicen. Problema: es posible que las máquinas de Dispatcher de alta disponibilidad no se puedan sincronizar en sistemas Linux para S/390 en controladores qeth
    Sugerencias para configurar la característica de alta configuración para Load Balancer Las sugerencias pueden ayudarle a reducir los problemas de alta disponibilidad como por ejemplo:
    • Conexiones desactivadas después de la toma de control
    • No se pueden sincronizar máquinas asociadas
    • Peticiones dirigidas erróneamente a la máquina asociada de reserva
    Problema: sugerencias para configurar la alta disponibilidad
    Limitaciones de configuración de reenvío MAC de Dispatcher con las plataformas zSeries y S/390 En Linux, existen limitaciones cuando se utilizan servidores zSeries o S/390 que disponen de tarjetas OSA (Open System Adapter). Se proporcionan soluciones alternativas posibles. Problema: en Linux, limitaciones cuando se utilizan servidores zSeries o S/390 que disponen de tarjetas OSA (Open System Adapter)
    En algunas versiones de Red Hat Linux, se produce una pérdida de memoria al ejecutar Load Balancer configurado con el gestor y los asesores Las versiones de la MVM de SDK Java de IBM y la biblioteca de hebras POSIX nativa (NPTL) que se entregan con algunas distribuciones Linux, como Red Hat Enterprise Linux 3.0, pueden hacer que se produzca la pérdida de memoria. Problema: en algunas versiones de Linux, se produce una pérdida de memoria al ejecutar Dispatcher configurado con el gestor y los asesores
    En SUSE Linux Enterprise Server 9, el informe de Dispatcher indica que se envían paquetes (aumenta el número de paquetes), aunque en realidad los paquetes nunca llegan al servidor de programa de fondo Se carga el módulo NAT de iptables. En esta versión de iptables hay un posible error, aunque sin confirmar, que provoca un comportamiento extraño al interactuar con Dispatcher. Problema: en SUSE Linux Enterprise Server 9, Dispatcher reenvía paquetes, pero los paquetes no llegan al servidor de programa de fondo
    En sistemas Windows, al utilizar la característica de alta disponibilidad de Dispatcher, pueden aparecer problemas durante la toma de control Si se ejecuta el script go* que configura la dirección IP de clúster de la máquina activa antes de ejecutar el script go* para desconfigurar la dirección IP de clúster de la máquina en espera, pueden surgir problemas. Problema: en sistemas Windows, se muestra un mensaje de conflicto de dirección IP durante la toma de control de alta disponibilidad
    En sistemas Linux, iptables puede impedir el direccionamiento de paquetes iptables en Linux pueden dificultar el equilibrio de carga y debe estar inhabilitado en la máquina de Load Balancer. Problema: en sistemas Linux, iptables puede impedir el direccionamiento de paquetes
    Cuando se instalan arreglos de servicio o se instala de forma nativa mediante las herramientas de paquetes del sistema, aparece un mensaje de aviso del conjunto de archivos Java. La instalación de producto consta de varios paquetes que no es necesario instalar en la misma máquina y, por lo tanto, cada uno de estos paquetes instala un conjunto de archivos Java. Cuando se instalan en la misma máquina, aparece un mensaje de aviso indicando que el conjunto de archivos Java también es propiedad de otro conjunto de archivos. Aparece un mensaje de aviso Java al instalar arreglos de servicio
    Actualización del conjunto de archivos Java que se proporciona con las instalaciones de Load Balancer Si se detecta un problema con el conjunto de archivos Java, debe notificarlo al servicio de IBM para así poder recibir una actualización para el conjunto de archivos Java que se proporcionó con la instalación de Load Balancer. Actualización del conjunto de archivos Java con la instalación de Load Balancer
    Pueden cerrarse conexiones permanentes durante la toma de control de alta disponibilidad en una plataforma Windows En sistemas operativos Microsoft Windows, es posible que las conexiones permanentes se caigan durante una operación de toma de control de alta disponibilidad. Este problema se produce sólo cuando dispone de un servidor compartido que utiliza el método de reenvío MAC. Problema: pueden cerrarse conexiones permanentes durante la toma de control de alta disponibilidad
    El programa de instalación no se ejecutará en un sistema operativo Linux de 32 bits para zSeries

    Al instalar WebSphere Edge Server utilizando ./install en el sistema operativo Linux de 32 bits para zSeries se produce un mensaje "JVM no encontrada".

    Problema: al instalar WebSphere Edge Server utilizando ./install en el sistema operativo Linux de 32 bits para zSeries se produce un mensaje JVM no encontrada
    El proceso de desinstalación no se completa correctamente en sistemas operativos Linux

    El proceso de desinstalación para WebSphere Edge Server se cierra en sistemas operativos Linux.

    Problema: el proceso de desinstalación para WebSphere Edge Server se cierra en sistemas operativos Linux

    Tabla 18. Tabla de resolución de problemas de CBR

    Síntoma Causa posible Vaya a....
    CBR no se ejecuta correctamente Números de puerto en conflicto Comprobación de los números de puerto de CBR
    El mandato cbrcontrol o lbadmin ha dado un error e indica el mensaje "El servidor no responde" o "No es posible acceder al servidor RMI" Los mandatos dan un error debido a una pila con SOCKS. O porque no se inicia cbrserver Problema: el mandato cbrcontrol o lbadmin da un error
    No se equilibra la carga de las peticiones Se ha iniciado Caching Proxy antes de que se iniciara el ejecutor Problema: no se equilibra la carga de las peticiones
    En Solaris, el mandato cbrcontrol executor start produce el mensaje de error 'Error: el ejecutor no se ha iniciado'. El mandato da un error porque quizá sea necesario modificar los valores predeterminados de IPC del sistema o el enlace a la biblioteca es incorrecto. Problema: en sistemas Solaris, el mandato cbrcontrol executor start da un error
    No funciona la regla de URL Error sintáctico o de configuración Problema: error sintáctico o de configuración
    Comportamiento de la GUI inesperado cuando se utilizan los sistemas Windows con la tarjeta de vídeo Matrox AGP Se produce un problema cuando se utilizan tarjetas de vídeo Matrox AGP al ejecutar la GUI de Load Balancer Problema: en la plataforma Windows, se produce un comportamiento de la GUI inesperado al utilizar tarjetas de vídeo Matrox AGP
    Se cierra la comunicación de la GUI (o tiene un comportamiento inesperado) cuando se intenta cargar un archivo de configuración de gran tamaño. Java no tiene acceso a suficiente memoria para gestionar un cambio de tan gran tamaño en la GUI Problema: se cierra la comunicación de la GUI (o tiene un comportamiento inesperado) cuando se intenta cargar un archivo de configuración de gran tamaño
    Se produce una desconexión del host cuando se utiliza la administración Web remota mediante Netscape Se producirá una desconexión del host cuando se cambie el tamaño de la ventana del navegador Problema: se produce una desconexión del host si se cambia el tamaño de la ventana del navegador Netscape cuando se utiliza la administración Web
    En la plataforma Windows, aparecen en el indicador de mandatos caracteres nacionales Latin-1 dañados Cambie las propiedades de font de la ventana de indicador de mandatos Problema: en plataformas Windows, aparecen caracteres nacionales Latin-1 dañados en la ventana de indicador de mandatos
    En la plataforma HP-UX, aparece este mensaje: java.lang.OutOfMemoryError unable to create new native thread (java.lang.OutOfMemoryError no se ha podido crear una nueva hebra nativa) Algunas instalaciones de HP-UX predeterminadas permiten 64 hebras por proceso. Esto es insuficiente. Problema: en HP-UX, se produce un error de falta de memoria/hebra de Java
    En la plataforma Windows, los asesores y los destinos de alcance marcan como inactivos todos los servidores No está inhabilitada Task Offload (Descarga de tareas) o quizá tenga que habilitarse icmp. Problema: en los sistemas Windows, los asesores y los destinos de alcance marcan como inactivos todos los servidores
    En la plataforma Windows, se produce un problema al resolver la dirección IP con nombre de host cuando se configura más de una dirección con un adaptador La dirección IP que desea como nombre de host debe aparecer primero en el registro. Problema: en sistemas Windows, se resuelve la dirección IP con el nombre de host cuando se ha configurado más de una dirección con el adaptador
    En sistemas Solaris, los procesos de Load Balancer finalizan cuando sale de la ventana de la sesión de terminal desde la que se han iniciado Utilice el mandato nohup para impedir que los procesos que ha iniciado reciban una señal de cierre de comunicación cuando sale de la sesión de terminal. Problema: en sistemas Solaris, los procesos de Load Balancer finalizan cuando sale de la ventana de terminal desde la que se han iniciado

    Tabla 19. Tabla de resolución de problemas de Site Selector

    Síntoma Causa posible Vaya a...
    Site Selector no se ejecuta correctamente Número de puerto en conflicto Comprobación de los números de puerto de Site Selector
    Site Selector no utiliza el algoritmo de turno rotativo para peticiones entrantes del cliente Solaris Los sistemas Solaris ejecutan un "daemon de caché del servicio de nombres" Problema: Site Selector no utiliza el algoritmo de turno rotativo en el tráfico de clientes Solaris
    El mandato sscontrol o lbadmin ha dado un error e indica el mensaje "El servidor no responde" o "No es posible acceder al servidor RMI" Los mandatos dan un error debido a una pila con SOCKS. O porque no se inicia ssserver Problema: el mandato sscontrol o lbadmin da un error
    No se ha podido iniciar ssserver en la plataforma Windows Los sistemas Windows no requieren que el nombre de host esté en el DNS. Problema: no se ha podido iniciar ssserver en la plataforma Windows
    La máquina con rutas duplicadas no equilibra la carga correctamente -- parece que la resolución de nombres da un error Máquina de Site Selector con varios adaptadores conectados a la misma subred Problema: Site Selector con rutas duplicadas no equilibra la carga correctamente
    Comportamiento de la GUI inesperado cuando se utiliza la plataforma Windows con la tarjeta de vídeo Matrox AGP Se produce un problema cuando se utilizan tarjetas de vídeo Matrox AGP al ejecutar la GUI de Load Balancer Problema: en la plataforma Windows, se produce un comportamiento de la GUI inesperado al utilizar tarjetas de vídeo Matrox AGP
    Se cierra la comunicación de la GUI (o tiene un comportamiento inesperado) cuando se intenta cargar un archivo de configuración de gran tamaño. Java no tiene acceso a suficiente memoria para gestionar un cambio de tan gran tamaño en la GUI Problema: se cierra la comunicación de la GUI (o tiene un comportamiento inesperado) cuando se intenta cargar un archivo de configuración de gran tamaño
    Se produce una desconexión del host cuando se utiliza la administración Web remota mediante Netscape Se producirá una desconexión del host cuando se cambie el tamaño de la ventana del navegador Problema: se produce una desconexión del host si se cambia el tamaño de la ventana del navegador Netscape cuando se utiliza la administración Web
    En la plataforma Windows, aparecen en el indicador de mandatos caracteres nacionales Latin-1 dañados Cambie las propiedades de font de la ventana de indicador de mandatos Problema: en plataformas Windows, aparecen caracteres nacionales Latin-1 dañados en la ventana de indicador de mandatos
    En la plataforma HP-UX, aparece este mensaje: java.lang.OutOfMemoryError unable to create new native thread (java.lang.OutOfMemoryError no se ha podido crear una nueva hebra nativa) Algunas instalaciones de HP-UX predeterminadas permiten 64 hebras por proceso. Esto es insuficiente. Problema: en HP-UX, se produce un error de falta de memoria/hebra de Java
    En la plataforma Windows, los asesores y los destinos de alcance marcan como inactivos todos los servidores No está inhabilitada Task Offload (Descarga de tareas) o quizá tenga que habilitarse icmp. Problema: en los sistemas Windows, los asesores y los destinos de alcance marcan como inactivos todos los servidores
    En sistemas Solaris, los procesos de Load Balancer finalizan cuando sale de la ventana de la sesión de terminal desde la que se han iniciado Utilice el mandato nohup para impedir que los procesos que ha iniciado reciban una señal de cierre de comunicación cuando sale de la sesión de terminal. Problema: en sistemas Solaris, los procesos de Load Balancer finalizan cuando sale de la ventana de terminal desde la que se han iniciado

    Tabla 20. Tabla de resolución de problemas del controlador para conmutadores Cisco CSS

    Síntoma Causa posible Vaya a...
    No se iniciará ccoserver Números de puerto en conflicto Comprobación de los números de puerto de Cisco CSS Controller
    El mandato ccocontrol o lbadmin ha dado un error e indica el mensaje "El servidor no responde" o "No es posible acceder al servidor RMI" Los mandatos dan un error debido a una pila con SOCKS. O porque no se inicia ccoserver Problema: el mandato ccocontrol o lbadmin da un error
    Error de recepción: Cannot create registry on port 13099 (No se ha podido crear el registro en el puerto 13099) Licencia del producto caducada Problema: no se ha podido crear el registro en el puerto 13099
    Comportamiento de la GUI inesperado cuando se utiliza la plataforma Windows con la tarjeta de vídeo Matrox AGP Se produce un problema cuando se utilizan tarjetas de vídeo Matrox AGP al ejecutar la GUI de Load Balancer Problema: en la plataforma Windows, se produce un comportamiento de la GUI inesperado al utilizar tarjetas de vídeo Matrox AGP
    Se ha recibido un error de conexión al añadir un consultor Los valores de configuración son incorrectos en el conmutador o el controlador Problema: se ha recibido un error de conexión al añadir un consultor
    No se actualizan los pesos en el conmutador La comunicación entre el controlador o el conmutador no está disponible o se ha interrumpido Problema: no se actualizan los pesos en el conmutador
    El mandato refresh no ha actualizado la configuración del consultor La comunicación entre el controlador y el conmutador no está disponible o se ha interrumpido Problema: el mandato refresh no ha actualizado la configuración del consultor
    Se cierra la comunicación de la GUI (o tiene un comportamiento inesperado) cuando se intenta cargar un archivo de configuración de gran tamaño. Java no tiene acceso a suficiente memoria para gestionar un cambio de tan gran tamaño en la GUI Problema: se cierra la comunicación de la GUI (o tiene un comportamiento inesperado) cuando se intenta cargar un archivo de configuración de gran tamaño
    Se produce una desconexión del host cuando se utiliza la administración Web remota mediante Netscape Se producirá una desconexión del host cuando se cambie el tamaño de la ventana del navegador Problema: se produce una desconexión del host si se cambia el tamaño de la ventana del navegador Netscape cuando se utiliza la administración Web
    En la plataforma Windows, aparecen en el indicador de mandatos caracteres nacionales Latin-1 dañados Cambie las propiedades de font de la ventana de indicador de mandatos Problema: en plataformas Windows, aparecen caracteres nacionales Latin-1 dañados en la ventana de indicador de mandatos
    En la plataforma HP-UX, aparece este mensaje: java.lang.OutOfMemoryError unable to create new native thread (java.lang.OutOfMemoryError no se ha podido crear una nueva hebra nativa) Algunas instalaciones de HP-UX predeterminadas permiten 64 hebras por proceso. Esto es insuficiente. Problema: en HP-UX, se produce un error de falta de memoria/hebra de Java
    En sistemas Solaris, los procesos de Load Balancer finalizan cuando sale de la ventana de la sesión de terminal desde la que se han iniciado Utilice el mandato nohup para impedir que los procesos que ha iniciado reciban una señal de cierre de comunicación cuando sale de la sesión de terminal. Problema: en sistemas Solaris, los procesos de Load Balancer finalizan cuando sale de la ventana de terminal desde la que se han iniciado

    Tabla 21. Tabla de resolución de problemas de Nortel Alteon Controller

    Síntoma Causa posible Vaya a...
    No se iniciará nalserver Números de puerto en conflicto Comprobación de los números de puerto de Nortel Alteon Controller
    El mandato nalcontrol o lbadmin ha dado un error e indica el mensaje "El servidor no responde" o "No es posible acceder al servidor RMI" Los mandatos dan un error debido a una pila con SOCKS. O porque no se inicia nalserver Problema: el mandato nalcontrol o lbadmin da un error
    Error de recepción: Cannot create registry on port 14099 (No se ha podido crear el registro en el puerto 14099) Licencia del producto caducada Problema: no se ha podido crear el registro en el puerto 14099
    Comportamiento de la GUI inesperado cuando se utiliza la plataforma Windows con la tarjeta de vídeo Matrox AGP Se produce un problema cuando se utilizan tarjetas de vídeo Matrox AGP al ejecutar la GUI de Load Balancer Problema: en la plataforma Windows, se produce un comportamiento de la GUI inesperado al utilizar tarjetas de vídeo Matrox AGP
    Se cierra la comunicación de la GUI (o tiene un comportamiento inesperado) cuando se intenta cargar un archivo de configuración de gran tamaño. Java no tiene acceso a suficiente memoria para gestionar un cambio de tan gran tamaño en la GUI Problema: se cierra la comunicación de la GUI (o tiene un comportamiento inesperado) cuando se intenta cargar un archivo de configuración de gran tamaño
    Se produce una desconexión del host cuando se utiliza la administración Web remota mediante Netscape Se producirá una desconexión del host cuando se cambie el tamaño de la ventana del navegador Problema: se produce una desconexión del host si se cambia el tamaño de la ventana del navegador Netscape cuando se utiliza la administración Web
    Se ha recibido un error de conexión al añadir un consultor Los valores de configuración son incorrectos en el conmutador o el controlador Problema: se ha recibido un error de conexión al añadir un consultor
    No se actualizan los pesos en el conmutador La comunicación entre el controlador o el conmutador no está disponible o se ha interrumpido Problema: no se actualizan los pesos en el conmutador
    El mandato refresh no ha actualizado la configuración del consultor La comunicación entre el controlador y el conmutador no está disponible o se ha interrumpido Problema: el mandato refresh no ha actualizado la configuración del consultor
    En la plataforma Windows, aparecen en el indicador de mandatos caracteres nacionales Latin-1 dañados Cambie las propiedades de font de la ventana de indicador de mandatos Problema: en sistemas Windows, aparecen caracteres nacionales Latin-1 dañados en la ventana de indicador de mandatos
    En la plataforma HP-UX, aparece este mensaje: java.lang.OutOfMemoryError unable to create new native thread (java.lang.OutOfMemoryError no se ha podido crear una nueva hebra nativa) Algunas instalaciones de HP-UX predeterminadas permiten 64 hebras por proceso. Esto es insuficiente. Problema: en HP-UX, se produce un error de falta de memoria/hebra de Java
    En sistemas Solaris, los procesos de Load Balancer finalizan cuando sale de la ventana de la sesión de terminal desde la que se han iniciado Utilice el mandato nohup para impedir que los procesos que ha iniciado reciban una señal de cierre de comunicación cuando sale de la sesión de terminal. Problema: en sistemas Solaris, los procesos de Load Balancer finalizan cuando sale de la ventana de terminal desde la que se han iniciado

    Tabla 22. Tabla de resolución de problemas de Metric Server

    Síntoma Causa posible Vaya a...
    IOException de Metric Server en la plataforma Windows al ejecutar los archivos de métrica del usuario .bat o .cmd Se requiere el nombre de métrica completo Problema: IOException de Metric Server en la plataforma Windows al ejecutar archivos de métrica del usuario .bat o .cmd
    Metric Server no informa de la información de carga a la máquina de Load Balancer Entre las causas posibles se incluyen:
    • No hay archivos de claves en la máquina de Metric Server
    • El nombre de host de la máquina de Metric Server no se ha registrado con el servidor de nombres local
    • El archivo /etc/hosts ha resuelto el nombre de host local con la dirección de bucle de retorno 127.0.0.1
    Problema: Metric Server no informa de las cargas en la máquina de Load Balancer
    El archivo de anotaciones cronológicas de Metric Server informa de que "Es necesaria la firma para acceder al agente" cuando se transfieren archivos de claves al servidor El archivo de claves no ha superado la autorización debido a que está dañado. Problema: el archivo de anotaciones cronológicas de Metric Server informa de que Es necesaria la firma para acceder al agente
    En sistemas AIX, cuando se ejecuta Metric Server bajo gran presión en un sistema multiprocesador (AIX 4.3.3 o AIX 5.1), podría dañar la salida del mandato ps -vg APAR IY33804 corrige este problema de AIX conocido Problema: en sistemas AIX, cuando se ejecuta Metric Server bajo mucha presión, la salida del mandato ps -vg podría dañarse
    Configuración de Metric Server en una configuración de dos niveles con el equilibrio de carga de Site Selector entre Dispatchers de alta disponibilidad No se ha configurado Metric Server (que reside en el segundo nivel) para que esté a la escucha en una nueva dirección IP. Problema: configuración de Metric Server en una configuración de dos niveles con el equilibrio de carga de Site Selector entre Dispatchers de alta disponibilidad
    Los scripts (metricserver, cpuload, memload) que se ejecutan en máquinas Solaris de varias CPU producen mensajes de la consola no deseados Este comportamiento se debe al uso del mandato de sistema VMSTAT para recopilar estadísticas de la CPU y de memoria del kernel. Problema: los scripts, en ejecución en máquinas Solaris de varias CPU, producen mensajes de consola no deseados
    En sistemas Solaris, los procesos de Load Balancer finalizan cuando sale de la ventana de la sesión de terminal desde la que se han iniciado Utilice el mandato nohup para impedir que los procesos que ha iniciado reciban una señal de cierre de comunicación cuando sale de la sesión de terminal. Problema: en sistemas Solaris, los procesos de Load Balancer finalizan cuando sale de la ventana de terminal desde la que se han iniciado
    El valor de métrica devuelve -1 después de iniciar Metric Server Este problema puede deberse a que los archivos de claves pierden su integridad durante la transferencia de los mismos al cliente. Problema: Después de iniciar Metric Server, el valor de métrica devuelve -1

    Comprobación de los números de puerto de Dispatcher

    Si experimenta problemas al ejecutar Dispatcher, quizá una de las aplicaciones esté utilizando un número de puerto que utiliza normalmente Dispatcher. Tenga en cuenta que el servidor de Dispatcher utiliza estos números de puerto:

    Si otra aplicación está utilizando uno de los números de puerto de Dispatcher, puede cambiar los números de puerto de Dispatcher o bien el número de puerto de la aplicación.

    Para cambiar los números de puerto de Dispatcher realice lo siguiente:

    Para cambiar el número de puerto RMI de la aplicación realice lo siguiente:

    Nota:
    Para la plataforma Windows, los archivos dsserver y metricserver se encuentran en el directorio C:\winnt\system32. Para otras plataformas, estos archivos se encuentran en el directorio /usr/bin/.

    Comprobación de los números de puerto de CBR

    Si experimenta problemas al ejecutar CBR, quizá una de las aplicaciones esté utilizando un número de puerto que CBR normalmente utiliza. Tenga en cuenta que CBR utiliza este número de puerto:

    Nota:
    El componente CBR (Content Based Routing) está disponible en todas las plataformas admitidas excepto donde se ejecuta una JVM de 64 bits. De modo alternativo, puede utilizar el método de reenvío cbr del componente Dispatcher de Load Balancer para proporcionar el direccionamiento basado en contenido sin utilizar Caching Proxy. Consulte el apartado Direccionamiento basado en contenido de Dispatcher (método de reenvío cbr) para obtener más información.

    Si otra aplicación está utilizando uno de los números de puerto de CBR, puede cambiar los números de puerto de CBR o el número de puerto de la aplicación.

    Para cambiar los números de puerto de CBR realice lo siguiente:

    Para cambiar el número de puerto RMI de la aplicación realice lo siguiente:

    Nota:
    Para la plataforma Windows, los archivos cbrserver y metricserver se encuentran en el directorio C:\winnt\system32. Para otras plataformas, estos archivos se encuentran en el directorio /usr/bin/.


    Comprobación de los números de puerto de Site Selector

    Si experimenta problemas al ejecutar el componente Site Selector, quizá una de las aplicaciones esté utilizando un número de puerto que Site Selector normalmente utiliza. Tenga en cuenta que el servidor de Site Selector utiliza estos números de puerto:

    Si otra aplicación está utilizando uno de los números de puerto de Site Selector, puede cambiar los números de puerto de Site Selector o bien el número de puerto de la aplicación.

    Para cambiar los números de puerto de Site Selector realice lo siguiente:

    Para cambiar el número de puerto RMI de la aplicación realice lo siguiente:

    Nota:
    Para la plataforma Windows, los archivos ssserver y metricserver se encuentran en el directorio C:\winnt\system32. Para otras plataformas, estos archivos se encuentran en el directorio /usr/bin/.

    Comprobación de los números de puerto de Cisco CSS Controller

    Si experimenta problemas al ejecutar el componente Cisco CSS Controller quizá otra aplicación esté utilizando uno de los números de puerto que utiliza ccoserver de Cisco CSS Controller. Tenga en cuenta que Cisco CSS Controller utiliza estos números de puerto:

    13099 para recibir mandatos de ccocontrol

    10004 para enviar consultas de métrica a Metric Server

    13199 para el puerto del servidor RMI

    Si otra aplicación está utilizando uno de los números de puerto de Cisco CSS Controller, puede cambiar los números de puerto de Cisco CSS Controller o bien el número de puerto de la aplicación.

    Para cambiar los números de puerto de Cisco CSS Controller realice lo siguiente:

    Para cambiar el número de puerto RMI de la aplicación realice lo siguiente:

    Nota:
    Para la plataforma Windows, los archivos ccoserver y metricserver se encuentran en el directorio C:\winnt\system32. Para otras plataformas, estos archivos se encuentran en el directorio /usr/bin.

    Comprobación de los números de puerto de Nortel Alteon Controller

    Si experimenta problemas al ejecutar el componente Nortel Alteon Controller quizá otra aplicación esté utilizando uno de los números de puerto que utiliza nalserver de Nortel Alteon Controller. Tenga en cuenta que Nortel Alteon Controller utiliza estos números de puerto:

    14099 para recibir mandatos de nalcontrol

    10004 para enviar consultas de métrica a Metric Server

    14199 para el puerto del servidor RMI

    Si otra aplicación está utilizando uno de los números de puerto de Nortel Alteon Controller, puede cambiar los números de puerto para Nortel Alteon Controller o bien los números de puerto de la aplicación.

    Para cambiar los números de puerto de Nortel Alteon Controller realice lo siguiente:

    Para cambiar el número de puerto RMI de la aplicación realice lo siguiente:

    Nota:
    Para la plataforma Windows, los archivos nalserver y metricserver se encuentran en el directorio C:\winnt\system32. Para otras plataformas, estos archivos se encuentran en el directorio /usr/bin.

    Resolución de problemas comunes -- Dispatcher

    Problema: no se ejecutará Dispatcher

    Este problema puede producirse si otra aplicación utiliza uno de los puertos utilizados por Dispatcher. Para obtener más información, consulte el apartado Comprobación de los números de puerto de Dispatcher.

    Problema: no responderán Dispatcher y el servidor

    Este problema se produce cuando se utiliza otra dirección que no es la dirección especificada. Cuando utiliza una ubicación compartida para el Dispatcher y el servidor, asegúrese de que la dirección del servidor utilizada en la configuración es la dirección NFA o que se configura como ubicación compartida. Además, compruebe si el archivo de host tiene la dirección correcta.

    Problema: no se equilibran las peticiones de Dispatcher

    Este problema tiene síntomas, por ejemplo, de conexiones de máquinas cliente no atendidas o de tiempo de espera de conexiones superado. Compruebe lo siguiente para diagnosticar este problema:

    1. ¿Ha configurado la dirección de no reenvío, los clústeres, los puertos y los servidores para el direccionamiento? Compruebe el archivo de configuración.
    2. ¿Se ha creado un alias de la tarjeta de interfaz de red con la dirección del clúster? Para Linux, utilice netstat -ni para comprobarlo.
    3. ¿Tiene el dispositivo de bucle de retorno de cada servidor establecido el alias en la dirección del clúster? Para Linux, utilice netstat -ni para comprobarlo.
    4. ¿Se ha suprimido la ruta adicional? En sistemas Linux y UNIX, utilice netstat -nr para comprobarlo.
    5. Utilice el mandato dscontrol cluster status para comprobar la información para cada clúster que ha definido. Asegúrese de que tiene definido un puerto para cada clúster.
    6. Utilice el mandato dscontrol server report :: para asegurarse de que ninguno de los servidores esté inactivo ni tenga establecido su peso en cero.

    Para Windows y otras plataformas, consulte también el apartado Configuración de máquinas de servidor para el equilibrio de carga.

    Problema: la función de alta disponibilidad de Dispatcher no funciona

    Este problema aparece cuando se configura un entorno de alta disponibilidad de Dispatcher y las conexiones de las máquinas cliente no se atienden o superan el tiempo de espera. Compruebe lo siguiente para corregir o diagnosticar el problema:

    Los pasos siguientes son un modo eficaz de probar que los scripts de alta disponibilidad funcionan correctamente:

    1. Recopile un informe emitiendo los mandatos netstat -an y ifconfig -a en la máquina
    2. Ejecute el script goActive
    3. Ejecute el script goStandby
    4. Una vez más, recopile un informe emitiendo los mandatos netstat -an y ifconfig -a

    Los dos informes serán idénticos si se han configurado correctamente los scripts.

    Problema: no se han podido añadir pulsos (plataforma Windows)

    Este error de la plataforma Windows se produce si no se configura la dirección de origen en un adaptador. Compruebe lo siguiente para corregir o diagnosticar el problema.

    Problema: rutas adicionales (Windows 2000)

    Después de configurar las máquinas servidor, puede encontrarse con que ha creado sin querer una o más rutas adicionales. Si no se eliminan, estas rutas adicionales impedirán el funcionamiento de Dispatcher. Para encontrarlas y suprimirlas, consulte el apartado Configuración de máquinas de servidor para el equilibrio de carga.

    Problema: los asesores no funcionan correctamente

    Si utiliza un soporte de área amplia y parece que los asesores no funcionan correctamente, asegúrese de que se inician en los dos Dispatcher, el local y el remoto.

    Se emite un mandato ping de ICMP a los servidores antes de la petición del asesor. Si existe un cortafuegos entre Load Balancer y los servidores, asegúrese de que se admiten los mandatos ping en el cortafuegos. Si esta configuración posee un riesgo de seguridad para la red, modifique la sentencia java en dsserver para desactivar todos los mandatos ping a los servidores añadiendo la propiedad java:

    LB_ADV_NO_PING="true" 
    java  -DLB_ADV_NO_PING="true"
    

    Consulte el apartado Utilización de asesores remotos con el soporte de área amplia de Dispatcher.

    Problema: Dispatcher, Microsoft IIS y SSL no funcionan (plataforma Windows)

    Cuando utiliza Dispatcher, Microsoft IIS y SSL, si no funcionan juntos, quizá haya un problema con la habilitación de la seguridad SSL. Para obtener más información sobre cómo generar un par de claves, adquirir un certificado, instalar un certificado con un par de claves y configurar un directorio para solicitar SSL, consulte la documentación de Microsoft Information and Peer Web Services.

    Problema: conexión de Dispatcher con una máquina remota

    Dispatcher utiliza claves para permitirle conectar con una máquina remota y configurarla. Las claves especifican un puerto RMI para la conexión. Es posible cambiar el puerto RMI por motivos de seguridad o conflictos. Cuando cambia los puertos RMI, el nombre de archivo de la clave es distinto. Si tiene más de una clave en el directorio de claves para la misma máquina remota y las claves especifican puertos RMI distintos, la línea de mandatos sólo intentará la primera que encuentre. Si es incorrecta, se rechazará la conexión. No se realizará la conexión a no ser que suprima la clave incorrecta.

    Problema: el mandato dscontrol o lbadmin da un error

    1. El mandato dscontrol devuelve: Error: el servidor no responde. O bien, el mandato lbadmin devuelve: Error: no es posible acceder al servidor RMI. Estos errores pueden producirse si su máquina tiene una pila con SOCKS. Para corregir este problema, edite el archivo socks.cnf para incluir las líneas siguientes:
      EXCLUDE-MODULE java
      EXCLUDE-MODULE javaw
      
    2. Las consolas de administración de las interfaces (línea de mandatos, interfaz gráfica de usuario y asistentes) de Load Balancer se comunican con dsserver utilizando RMI (Remote Method Invocation). La comunicación predeterminada utiliza tres puertos; cada puerto se establece en el script de inicio de dsserver:

      Esto puede producir problemas si una de las consolas de administración se ejecuta en la misma máquina que un cortafuegos o a través de un cortafuegos. Por ejemplo, cuando se ejecuta Load Balancer en la misma máquina que un cortafuegos y emite mandatos dscontrol, podrían aparecer errores como Error: el servidor no responde.

      Para impedir este problema, edite el archivo de scripts dsserver para establecer el puerto utilizado por RMI para el cortafuegos (u otra aplicación). Cambie la línea: LB_RMISERVERPORT=10199 por LB_RMISERVERPORT=suPuerto. Donde suPuerto es otro puerto.

      Cuando haya terminado, reinicie dsserver y abra el tráfico para los puertos: 10099, 10004, 10199 y 10100 o para el puerto seleccionado para la dirección del host desde donde se ejecutará la consola de administración.

    3. También se pueden producir estos errores si aún no ha iniciado dsserver.
    4. Si hay varios adaptadores en la máquina, debe designar el adaptador que dsserver va a utilizar añadiendo lo siguiente al script dsserver: java.rmi.server.hostname=<nombre_host o dirección_IP>

      Por ejemplo: java -Djava.rmi.server.hostname="10.1.1.1"

    Problema: aparece el mensaje de error "No se puede encontrar el archivo..." al intentar consultar la ayuda en línea (plataforma Windows)

    Para plataformas Windows, cuando utiliza Netscape como el navegador predeterminado, puede producirse este mensaje de error: "No se puede encontrar el archivo '<nombrearchivo>.html' (o uno de sus componentes). Asegúrese de que la vía de acceso y el nombre de archivo sean correctos y de que están disponibles todas las bibliotecas necesarias".

    El problema se debe a un valor incorrecto de la asociación de archivo HTML. Esta es la solución:

    1. Pulse Mi PC, a continuación Herramientas , seleccione Opciones de carpeta y pulse la pestaña Tipos de archivo
    2. Seleccione "Documento de hipertexto de Netscape"
    3. Pulse el botón Opciones avanzadas, seleccione open, pulse el botón Editar
    4. Especifique NSShell en el campo Aplicación: (no en el campo Aplicación utilizada para realizar la acción:) y pulse Aceptar

    Problema: la GUI (interfaz gráfica de usuario) no se inicia correctamente

    La GUI (interfaz gráfica de usuario), que es lbadmin, requiere una cantidad de espacio de paginación suficiente para funcionar correctamente. Si no hay disponible suficiente espacio para paginación, quizá la GUI no se inicie completamente. Si ocurriera esto, compruebe el espacio de paginación y auméntelo si es necesario.

    Problema: error al ejecutar Dispatcher con Caching Proxy instalado

    Si desinstala Load Balancer para volver a instalar otra versión y obtiene un error al intentar iniciar el componente Dispatcher, compruebe si se ha instalado Caching Proxy. Caching Proxy tiene una dependencia en uno de los archivos de Dispatcher; este archivo se desinstalará sólo cuando se desinstale Caching Proxy.

    Para evitar este problema:

    1. Desinstale Caching Proxy.
    2. Desinstale Load Balancer.
    3. Vuelva a instalar tanto Load Balancer como Caching Proxy.

    Problema: la GUI (interfaz gráfica de usuario) no se muestra correctamente

    Si experimenta problemas con la apariencia de la GUI de Load Balancer, compruebe el valor de la resolución del escritorio del sistema operativo. La GUI se visualiza mejor con una resolución de 1024x768 píxeles.

    Problema: en la plataforma Windows, las ventanas de ayuda a veces desaparecen detrás de otras ventanas abiertas

    En la plataforma Windows, cuando abre por primera vez las ventanas de ayuda, a veces desaparecen en el fondo detrás de ventanas existentes. Si esto sucediera, pulse en la ventana para traerla de nuevo al frente.

    Problema: Load Balancer no puede procesar y reenviar una trama

    En Solaris cada adaptador de red tiene la misma dirección MAC predeterminada. Esto funciona correctamente si cada adaptador se encuentra en una subred IP distinta; no obstante, en un entorno conmutado, cuando varias NIC con la misma dirección MAC y la misma dirección de subred IP se comunican con el mismo conmutador, el conmutador envía todo el tráfico enlazado para la dirección MAC única (y las dos IP) al mismo cable. Sólo el adaptador que incluyó por última vez una trama en el cable detecta los paquetes IP enlazados para los dos adaptadores. Solaris podría descartar paquetes para una dirección IP válida que llegaran en la interfaz "incorrecta".

    Si las interfaces de red no están diseñadas para Load Balancer como se configura en ibmlb.conf y si la tarjeta NIC que no se define en ibmlb.conf recibe una trama, Load Balancer no tiene la posibilidad de procesar y reenviar la trama.

    Para evitar este problema, debe alterar temporalmente el valor predeterminado y establecer una dirección MAC única para cada interfaz. Utilice este mandato:

    ifconfig interfaz ether dirMac
    

    Por ejemplo:

    ifconfig eri0 ether 01:02:03:04:05:06
    

    Problema: se muestra una pantalla azul cuando se inicia el ejecutor de Load Balancer

    En la plataforma Windows, debe tener instalada y configurada una tarjeta de red antes de iniciar el ejecutor.

    Problema: la vía de acceso al descubrimiento impide el tráfico de retorno con Load Balancer

    El sistema operativo AIX contiene un parámetro de red llamado descubrimiento de MTU de la vía de acceso. Durante la transacción con un cliente, si el sistema operativo determina que debe utilizar una unidad de transmisión máxima (MTU) más pequeña para los paquetes, el descubrimiento de MTU de la vía de acceso hace que AIX cree una ruta para recordar ese dato. La nueva ruta es para esa dirección IP del cliente específica y graba la MTU necesaria para llegar a ella.

    Cuando se crea la ruta, podría aparecer un problema en los servidores provocado por el clúster del que se crea un alias en el bucle de retorno. Si la dirección de pasarela para la ruta está dentro de la subred del clúster/máscara de red, los sistemas AIX crean la ruta en el bucle de retorno. Esto sucede porque esa era la última interfaz con alias con esa subred.

    Por ejemplo, si el clúster es 9.37.54.69 y se utiliza una máscara de red 255.255.255.0 y la pasarela prevista es 9.37.54.1, los sistemas AIX utilizarán el bucle de retorno para la ruta. Esto provoca que las respuestas del servidor nunca abandonen la máquina y que el cliente supere el tiempo de espera. El cliente suele detectar una respuesta del clúster, luego se crea la ruta y el cliente ya no recibe nada más.

    Hay dos soluciones para este problema.

    1. Inhabilite el descubrimiento de MTU de la vía de acceso de modo que el sistema AIX no añada dinámicamente las rutas. Utilice estos mandatos.

      no -a
      enumera los valores de red de AIX

      no -o option=value
      Establece los parámetros TCP en sistemas AIX
    2. Cree un alias de la dirección IP del clúster en el bucle de retorno con una máscara de red 255.255.255.255. Esto significa que la subred con alias es sólo la dirección IP del clúster. Cuando los sistemas AIX crean las rutas dinámicas, la dirección IP de pasarela de destino no coincide con esa subred, lo que produce una ruta que utiliza la interfaz de red correcta. Luego suprima la nueva ruta lo0 que se había creado durante el paso de creación de alias. Para ello, encuentre la ruta en el bucle de retorno con un destino de red de la dirección IP del clúster y suprima esa ruta. Esto debe realizarse cada vez que se crea un alias del clúster.

    Notas:

    1. El descubrimiento de MTU de la vía de acceso se inhabilita de manera predeterminada en AIX 4.3.2 e inferiores; no obstante, en AIX 4.3.3 y superiores se habilita de manera predeterminada.

    2. Los mandatos siguientes desactivan el descubrimiento de MTU de la vía de acceso y deben ejecutarse cada vez que se arranca el sistema. Añada estos mandatos al archivo /etc/rc.net.

    Problema: no funciona la alta disponibilidad en la modalidad de área amplia de Load Balancer

    Cuando configura un Load Balancer de área amplia, debe definir el Dispatcher remoto como un servidor de un clúster en el Dispatcher local. Normalmente, puede utilizar la dirección de no reenvío (NFA) del Dispatcher remoto como la dirección de destino del servidor remoto. Si hace esto y configura la alta disponibilidad en el Dispatcher remoto, dará un error. Esto sucede porque el Dispatcher local siempre señala a la máquina primaria en el lado remoto cuando utiliza su dirección NFA para acceder a ésta.

    Para solucionar este problema:

    1. Defina un clúster adicional en el Dispatcher remoto. No es necesario definir puertos o servidores para este clúster.
    2. Añada esta dirección del clúster a los scripts goActive y goStandy.
    3. En el Dispatcher local, defina esta dirección del clúster como un servidor, en lugar de la dirección NFA del Dispatcher primario remoto.

    Cuando aparece el Dispatcher primario remoto, creará un alias de esta dirección en su adaptador, que le permite aceptar tráfico. Si se produce una anomalía, la dirección se desplaza a la máquina de reserva y ésta sigue aceptando el tráfico de esa dirección.

    Problema: se cierra la comunicación de la GUI (o tiene un comportamiento inesperado) cuando se intenta cargar un archivo de configuración de gran tamaño

    Cuando se utiliza lbadmin o la administración Web (lbwebaccess) para cargar un archivo de configuración de gran tamaño (unos 200 o más mandatos add), podría cerrarse la comunicación de la GUI o mostrar un comportamiento inesperado, como una respuesta sumamente lenta a los cambios de pantalla.

    Esto se produce porque Java no tiene acceso a suficiente memoria para gestionar una configuración de tan gran tamaño.

    Hay una opción en el entorno de ejecución que se puede especificar para aumentar la agrupación de asignaciones de memoria en Java.

    La opción es -Xmxn donde n es el tamaño máximo, en bytes, para la agrupación de asignaciones de memoria. n debe ser múltiplo de 1024 y ser mayor que 2 MB. El valor n debe ir seguido de k o K para indicar kbytes o de m o M para indicar megabytes. Por ejemplo, -Xmx128M y -Xmx81920k son dos valores válidos. El valor predeterminado son 64 M. Solaris 8 tiene un valor máximo de 4000 M.

    Por ejemplo, para añadir esta opción, edite el archivo de scripts lbadmin, modificando "javaw" con "javaw -Xmxn" como se detalla a continuación. (Para sistemas AIX, cambie "java" por "java -Xmxn"):

    No hay ningún valor recomendado para n, pero debería ser mayor que la opción predeterminada. Un buen punto de partida sería el doble del valor predeterminado.

    Problema: lbadmin realiza una desconexión del servidor después de actualizar la configuración

    Si la administración de Load Balancer (lbadmin) realiza la desconexión del servidor después de actualizar la configuración, compruebe la versión de dsserver en el servidor que intenta configurar y asegúrese de que es la misma que la versión de lbadmin o dscontrol.

    Problema: las direcciones IP no se resuelven correctamente en la conexión remota

    Cuando se utiliza un cliente remoto en una implementación de SOCKS segura, quizá los nombres de dominio o de host plenamente cualificados no se resuelvan con la dirección IP correcta en notación de dirección IP. La implementación de SOCKS podría añadir datos específicos, relacionados con SOCKS a la resolución de DNS.

    Si una dirección IP no se resuelve correctamente en la conexión remota, especifique la dirección IP en el formato de notación de dirección IP.

    Problema: la interfaz de Load Balancer coreana muestra fonts solapados o no deseados en sistemas AIX y Linux

    Para corregir el solapamiento de fonts o fonts no deseados en la interfaz coreana de Load Balancer:

    En sistemas AIX

    1. Detenga todos los procesos Java en el sistema AIX.
    2. Abra el archivo font.properties.ko en un editor. Este archivo se ubica en inicio/jre/lib donde inicio es el directorio de inicio Java.
    3. Busque esta serie:
      -Monotype-TimesNewRomanWT-medium-r-normal
      --*-%d-75-75-*-*-ksc5601.1987-0
      
    4. Sustituya todas las instancias de la serie con:
      -Monotype-SansMonoWT-medium-r-normal
      --*-%d-75-75-*-*-ksc5601.1987-0
      
    5. Guarde el archivo.

    En sistemas Linux

    1. Detenga todos los procesos Java en el sistema.
    2. Abra el archivo font.properties.ko en un editor. Este archivo se ubica en inicio/jre/lib donde inicio es el directorio de inicio Java.
    3. Busque esta serie (sin espacios):
      -monotype-
      timesnewromanwt-medium-r-normal--*-%d-75-75-p-*-microsoft-symbol
      
    4. Sustituya todas las instancias de la serie con:
      -monotype-sansmonowt-medium-r-normal--*-%d-75-75-p-*-microsoft-symbol
      
    5. Guarde el archivo.

    Problema: en sistemas Windows, se devuelve una dirección del alias en lugar de la dirección local cuando se emiten mandatos como hostname

    En sistemas Windows, después de crear un alias del adaptador MS Loopback, cuando emita determinados mandatos como hostname, el sistema operativo responderá incorrectamente con la dirección del alias en lugar de la dirección local. Para corregir este problema, en la lista de conexiones de red, el alias recién añadido debe enumerarse bajo la dirección local. Esto asegurará que se accede a la dirección local antes que al alias de bucle de retorno.

    Para comprobar la lista de conexiones de red:

    1. Pulse Inicio > Configuración > Conexiones de red y de acceso telefónico
    2. En la opción de menú Opciones avanzadas, seleccione Configuración avanzada...
    3. Asegúrese de que se enumera en primer lugar Conexión de área local en el recuadro Conexiones
    4. Si es necesario, utilice los botones de ordenación a la derecha para desplazar hacia arriba o abajo las entradas en la lista

    Problema: en la plataforma Windows, se produce un comportamiento de la GUI inesperado al utilizar tarjetas de vídeo Matrox AGP

    En la plataforma Windows cuando utiliza una tarjeta Matrox AGP, puede aparecer un comportamiento inesperado en la GUI de Load Balancer. Cuando pulsa el ratón, podría dañarse un bloque de espacio ligeramente mayor que el puntero del ratón provocando una posible inversión del resaltado o un desplazamiento de imágenes fuera del lugar de la pantalla. Las tarjetas Matrox anteriores no han mostrado este comportamiento. No hay un fix pack conocido cuando se utilizan tarjetas Matrox AGP.

    Problema: comportamiento inesperado al ejecutar "rmmod ibmlb" (sistemas Linux)

    En sistemas Linux, si dsserver todavía está en ejecución durante la eliminación manual del módulo kernel de Load Balancer, puede producirse un comportamiento inesperado, como un javacore o que se cierre la comunicación del sistema. Cuando elimina manualmente el módulo kernel de Load Balancer, primero debe detener dsserver.

    Si no funciona "dsserver stop", detenga el proceso java con SRV_KNDConfigServer. Para detener el proceso encuentre su identificador de proceso utilizando el mandato ps -ef | grep SRV_KNDConfigServer y finalice el proceso utilizando el mandato kill id_proceso.

    Puede ejecutar de modo seguro el mandato "rmmod ibmlb" para eliminar el módulo Load Balancer del kernel.

    Problema: tiempo de respuesta lento cuando se ejecutan mandatos en la máquina de Dispatcher

    Si ejecuta el componente Dispatcher para el equilibrio de carga, es posible sobrecargar el sistema con tráfico del cliente. El módulo kernel de Load Balancer tiene la máxima prioridad y, si gestiona constantemente paquetes del cliente, el resto del sistema podría quedarse sin respuesta. La ejecución de mandatos en el espacio de usuario puede llevar mucho tiempo completarse o puede que nunca se complete.

    Si esto sucede, debería comenzar a reestructurar su configuración para impedir la sobrecarga de la máquina de Load Balancer con tráfico. Entre las alternativas se incluye distribuir la carga entre varias máquinas de Load Balancer o sustituir la máquina con un sistema más consistente y más rápido.

    Cuando intente determinar si el tiempo de respuesta lento en la máquina se debe a un alto volumen de tráfico del cliente, considere si esto se produce durante los momentos de tráfico máximo del cliente. Los sistemas mal configurados que provocan bucles de direccionamiento también pueden provocar los mismos síntomas. Pero antes de cambiar la configuración de Load Balancer, determine si los síntomas pueden deberse a un gran volumen de carga del cliente.

    Problema: el asesor SSL o HTTPS no registra cargas del servidor (cuando se utiliza el reenvío mac)

    Cuando se utiliza el método de reenvío mac, Load Balancer enviará paquetes a los servidores utilizando la dirección del clúster de la que se ha creado un alias en el bucle de retorno. Algunas aplicaciones servidor (como SSL) requieren que la información de configuración (como los certificados) sea según la dirección IP. La dirección IP debe ser la dirección del clúster que se configura en el bucle de retorno para que corresponda al contenido de los paquetes de entrada. Si no se utiliza la dirección IP del clúster cuando se configura la aplicación servidor, no se reenviará correctamente la petición del cliente al servidor.

    Problema: se produce una desconexión del host si se cambia el tamaño de la ventana del navegador Netscape cuando se utiliza la administración Web

    Si utiliza la administración Web remota para configurar Load Balancer, no cambie el tamaño (Minimizar, Maximizar, Restaurar minimizando, etc.) de la ventana del navegador Netscape en la que aparece la GUI de Load Balancer. Dado que Netscape vuelve a cargar una página cada vez que se cambia el tamaño de la ventana del navegador, esto provocará una desconexión del host. Tendrá que volver a conectar con el host cada vez que cambie el tamaño de la ventana. Si realiza administración Web remota en la plataforma Windows, utilice Internet Explorer.

    Problema: está habilitada la agrupación de sockets y el servidor Web se enlaza a 0.0.0.0

    Cuando ejecuta el servidor IIS de Microsoft versión 5.0 en servidores finales Windows, debe configurar el servidor IIS de Microsoft para que sea específico del enlace. De lo contrario, se inhabilitará la agrupación de sockets predeterminada y el servidor Web se enlazará a 0.0.0.0 y realizará la escucha de todo el tráfico, en lugar de enlazar a las direcciones IP virtuales configuradas como varias identidades para el sitio. Si se queda inactiva una aplicación en el host local cuando está habilitada la agrupación de sockets, los asesores del servidor ND de AIX o Windows detectarán esto; no obstante, si se queda inactiva una aplicación en un host virtual cuando el host local está activo, los asesores no detectarán la anomalía y Microsoft IIS seguirá respondiendo a todo el tráfico, incluida la aplicación inactiva.

    Para determinar si está habilitada la agrupación de sockets y si el servidor Web se enlaza a 0.0.0.0, emita este mandato:

     netstat -an
    

    Las instrucciones sobre cómo configurar el servidor IIS de Microsoft para que sea específico de enlace (inhabilite la agrupación de sockets), se encuentran en el sitio Web de servicios de soporte del producto Microsoft. También puede visitar una de estas URL para obtener esta información:

    IIS5: Hardware Load Balance Does Not Detect a Stopped Web Site (Q300509)
    http://support.microsoft.com/default.aspx?scid=kb;en-us;Q300509

    How to Disable Socket Pooling (Q238131)
    http://support.microsoft.com/default.aspx?scid=kb;en-us;Q238131

    Problema: en sistemas Windows, aparecen caracteres nacionales Latin-1 dañados en la ventana de indicador de mandatos

    En las ventanas de indicador de mandatos del sistema operativo Windows, quizá algunos caracteres nacionales de la familia Latin-1 aparezcan dañados. Por ejemplo, la letra "a" con una tilde podría mostrarse como el símbolo pi. Para corregir esto, debe cambiar las propiedades de font de la ventana de línea de mandatos. Para cambiar el font, realice lo siguiente:

    1. Pulse en el icono en la esquina superior izquierda de la ventana de indicador de mandatos
    2. Seleccione Propiedades, luego pulse la pestaña Fuente
    3. El font predeterminado es Fuentes de mapa de bits; cambie este valor por Lucida Console y pulse Aceptar

    Problema: en HP-UX, se produce un error de falta de memoria/hebra de Java

    Algunas instalaciones de HP-UX 11i están preconfiguradas para sólo permitir 64 hebras por proceso. No obstante, algunas configuraciones de Load Balancer requieren una cantidad mayor. En los sistemas HP-UX, establezca las hebras por proceso como mínimo en 256. Para aumentar este valor, utilice el programa de utilidad "sam" para establecer el parámetro de kernel max_thread_proc. Si se espera un uso masivo, puede ser necesario aumentar max_thread_proc por encima de 256.

    Para aumentar max_thread_proc, haga lo siguiente:

    1. En la línea de mandatos, escriba: sam
    2. Seleccione Kernel Configuration (Configuración del kernel) > Configurable Parameters (Parámetros configurables)
    3. Desde la barra de desplazamiento, seleccione max_thread_proc
    4. Pulse la barra espaciadora para resaltar max_thread_proc
    5. Pulse la tecla tabuladora una vez y, después, pulse la tecla de flecha a la derecha hasta que seleccione Actions
    6. Pulse Intro para mostrar el menú Actions (Acciones), luego pulse M para seleccionar Modify Configurable Parameter (Modificar parámetro configurable). Si no aparece esta opción, resalte max_thread_proc)
    7. Pulse la tecla tabuladora hasta que seleccione el campo Formula/Value (Formato/valor)
    8. Entre un valor de 256 o superior.
    9. Pulse OK (Aceptar)
    10. Pulse la tecla tabuladora una vez y, después, seleccione Actions
    11. Pulse K para Process New Kernel (Procesar nuevo kernel)
    12. Seleccione Yes (Sí)
    13. Rearranque el sistema

    Problema: en los sistemas Windows, los asesores y los destinos de alcance marcan como inactivos todos los servidores

    Cuando configura el adaptador en una máquina de Load Balancer, debe asegurarse de que los dos valores siguientes son correctos para que el asesor funcione:

    Problema: en la plataforma Windows, se resuelve la dirección IP con el nombre de host cuando se ha configurado más de una dirección con el adaptador

    En la plataforma Windows, cuando configura un adaptador con más de una dirección IP, configure la dirección IP que desea afiliar al nombre de host primero del registro.

    Puesto que Load Balancer depende de InetAddress.getLocalHost() en muchas instancias (por ejemplo, lbkeys create), varias direcciones IP que tienen un alias con un sólo adaptador podrían provocar problemas. Para impedir este problema, enumere la dirección IP con la que desea que se resuelva la dirección IP primero en el registro. Por ejemplo:

    1. Inicie Regedit
    2. Modifique estos nombres de valor como se detalla a continuación:
    3. Rearranque el equipo
    4. Compruebe que el nombre de host se resuelve con la dirección IP correcta. Por ejemplo, ejecute ping SuNombreSistemaPrpal.

    Problema: en sistemas Windows, después de una caída de la red, los asesores no funcionan en una configuración de alta disponibilidad

    De manera predeterminada, cuando el sistema operativo Windows detecta una caída de la red, borra su memoria caché ARP (Address Resolution Protocol), incluidas todas las entradas estáticas. Cuando la red está disponible, la memoria caché ARP se vuelve a rellenar con peticiones ARP enviadas en la red.

    Con una configuración de alta disponibilidad, cuando una pérdida de conectividad de red influye en uno o los dos servidores, éstos se hacen con el control de las operaciones primarias. Cuando se envía la petición ARP para rellenar la memoria caché ARP, los dos servidores responden, lo que provoca que la memoria caché ARP marque la entrada como no válida. Por lo tanto, los asesores no pueden crear un socket para los servidores finales.

    Si se impide que el sistema operativo Windows borre la memoria caché ARP cuando hay una pérdida de conectividad se soluciona este problema. Microsoft ha publicado un artículo que describe cómo llevar a cabo esta tarea. Este artículo está en el sitio Web de Microsoft, ubicado en la en la base de información de Microsoft, artículo número 239924: http://support.microsoft.com/default.aspx?scid=kb;en-us;239924.

    A continuación figura un resumen de los pasos, que se describen en el artículo de Microsoft, para impedir que el sistema borre la memoria caché ARP:

    1. Utilice el Editor del Registro (regedit o regedit32) para abrir el registro.
    2. Consulte la clave siguiente del registro:
      HKEY_LOCAL_MACHINE\System\CurrentControlSet\Services\Tcpip\Parameters
      
    3. Añada este valor del registro: Nombre de valor: DisableDHCPMediaSense Tipo de valor: REG_DWORD.
    4. Después de que se añade la clave, edite el valor y establézcalo en 1.
    5. Rearranque la máquina para que el cambio entre en vigor.
    Nota:
    Esto influye en la memoria caché ARP independientemente del valor de DHCP.

    Problema: en sistemas Linux, no utilice el mandato "IP address add" cuando cree un alias de varios clústeres en el dispositivo de bucle de retorno

    Se deben tener determinadas consideraciones cuando se utilizan servidores Linux kernel 2.4.x y el método de reenvío MAC de Dispatcher. Si el servidor tiene una dirección del clúster configurada en el dispositivo de bucle de retorno utilizando el mandato ip address add, sólo se puede crear un alias de clúster de dirección.

    Cuando cree un alias de varios clústeres con el dispositivo de bucle de retorno utilice el mandato ifconfig, por ejemplo:

    ifconfig lo:num dirección_clúster netmask 255.255.255.255 up 
    

    Además, hay incompatibilidades entre los métodos ifconfig e ip de configurar interfaces. El procedimiento recomendado sugiere que un sitio seleccione un método y utilice ese método de forma exclusiva.

    Problema: mensaje de error "dirección del direccionador no especificada o no válida para el método del puerto"

    Cuando añade servidores a la configuración de Dispatcher, puede producirse este mensaje de error: "Error: dirección del direccionador no especificada o no válida para el método del puerto".

    Utilice la lista de comprobación para determinar el problema:

    El valor predeterminado del parámetro de direccionador es 0, que indica que el servidor es local. Si establece la dirección del direccionador del servidor en un valor que no es 0, esto indica que es un servidor remoto, en una subred distinta. Para obtener más información sobre el parámetro router del mandato add, consulte el apartado dscontrol server -- configurar servidores.

    Si el servidor que añade se ubica en una subred distinta, el parámetro de direccionador debería ser la dirección del direccionador que se va a utilizar en la subred local para comunicarse con el servidor remoto.

    Problema: en sistemas Solaris, los procesos de Load Balancer finalizan cuando sale de la ventana de terminal desde la que se han iniciado

    En sistemas Solaris, después de iniciar scripts de Load Balancer (como dsserver o lbadmin) desde una ventana de terminal, si sale de esa ventana, también sale el proceso de Load Balancer.

    Para solucionar este problema, inicie los scripts de Load Balancer con el mandato nohup. Por ejemplo: nohup dsserver. Este mandato impide que los procesos iniciados desde la sesión de terminal reciban una señal de cierre de comunicación del sistema del terminal cuando sale, que permite a los procesos continuar incluso después de que haya finalizado la sesión de terminal. Utilice el mandato nohup delante de cualquier script de Load Balancer que desee seguir procesando cuando haya terminado la sesión de terminal.

    Problema: Se ha producido un retardo al cargar una configuración de Load Balancer

    La configuración de Load Balancer puede tardar mucho en cargarse debido a las llamadas al Sistema de nombres de dominio (DNS) que se realizan para resolver y verificar la dirección de servidor.

    Si el DNS de la máquina de Load Balancer se configura incorrectamente o si el DNS en general lleva mucho tiempo, disminuirá la velocidad de la carga de la configuración debido a los procesos Java que envían peticiones de DNS en la red.

    Una solución para esto es añadir las direcciones del servidor y los nombres de host al archivo /etc/hosts local.

    Problema: en sistemas Windows, aparece un mensaje de error de conflicto de dirección IP

    Si se configura la alta disponibilidad, podrían configurarse direcciones del clúster en las dos máquinas por un breve período y provocar este mensaje de error: Hay un conflicto de dirección IP con otro sistema en la red. En este caso, puede ignorar el mensaje con seguridad. Es posible que una dirección del clúster se configure brevemente en las dos máquinas de alta disponibilidad a la vez, especialmente durante el inicio de cualquiera de las máquinas o cuando se ha iniciado la toma del control.

    Compruebe los scripts go* para asegurarse de que configuran y desconfiguran correctamente direcciones del clúster. Si ha invocado un archivo de configuración y tiene scripts go* instalados, asegúrese de que no tiene ninguna sentencia de mandato "executor configure" para las direcciones del clúster en el archivo de configuración, porque esto entrará en conflicto con los mandatos configure y unconfigure de los scripts go*.

    Si desea más información sobre scripts go* cuando configura la característica de alta disponibilidad, consulte el apartado Utilización de scripts.

    Problema: las dos máquinas, primaria y de reserva, están activas en una configuración de alta disponibilidad

    Este problema podría producirse cuando no se ejecutan los scripts go en alguna de las máquinas primaria o de reserva. Los scripts go no pueden ejecutarse si no se ha iniciado dsserver en las dos máquinas. Compruebe las dos máquinas y asegúrese de que dsserver está en ejecución.

    Problema: no se pueden realizar las peticiones del cliente cuando el sistema intenta devolver respuestas de páginas de gran tamaño

    Las peticiones del cliente que producen unas respuestas de páginas de gran tamaño superan el tiempo de espera si la unidad de transmisión máxima (MTU) no se establece correctamente en la máquina de Dispatcher. Para los métodos de reenvío cbr y nat del componente Dispatcher, esto puede suceder porque Dispatcher toma de manera predeterminada el valor de la MTU, en lugar de negociar el valor.

    La MTU se establece en cada sistema operativo basándose en el tipo de soporte de comunicaciones (por ejemplo, Ethernet o Token-Ring). Los direccionadores del segmento local podrían tener establecida una MTU de menor tamaño si se conectan con un tipo de soporte de comunicaciones distinto. En condiciones de tráfico normal de TCP, se produce una negociación de la MTU durante la configuración de la conexión y se utiliza la MTU de menor tamaño para enviar datos entre máquinas.

    Dispatcher no admite la negociación de la MTU para el método de reenvío cbr o nat de Dispatcher porque interviene activamente como un punto final para conexiones TCP. Para el reenvío cbr y nat, Dispatcher toma de manera predeterminada el valor de MTU de 1500 . Este valor es el tamaño de la MTU típico para Ethernet estándar, de manera que la mayoría de los clientes no tienen que ajustar este valor.

    Cuando se utiliza el método de reenvío cbr o nat de Dispatcher, si tiene un direccionador al segmento local que tiene una MTU de menor tamaño, debe establecer la MTU en la máquina de Dispatcher para que coincida con la MTU de menor tamaño.

    Para resolver este problema, utilice el mandato siguiente para establecer el valor del tamaño de segmento máximo (mss): dscontrol executor set mss nuevo_valor

    Por ejemplo:

    dscontrol executor set mss 1400 
    

    El valor predeterminado de mss es 1460.

    El valor de mss no se aplica para el método de reenvío mac de Dispatcher ni para ningún otro componente no Dispatcher de Load Balancer.

    Problema: en sistemas Windows, se produce el error "el servidor no responde" cuando se emite dscontrol o lbadmin

    Cuando existe más de una dirección IP en un sistema Windows y el archivo hosts no especifica la dirección que se va a asociar al nombre de host, el sistema operativo selecciona la dirección de menor tamaño para asociarla al nombre de host.

    Para resolver este problema, actualice el archivo c:\Windows\system32\drivers\etc\hosts con el nombre de host de su máquina y la dirección IP que desee asociar al nombre de host.

    IMPORTANTE: la dirección IP no puede ser una dirección del clúster.

    Problema: es posible que las máquinas de Dispatcher de alta disponibilidad no se puedan sincronizar en sistemas Linux para S/390 en controladores qeth

    Cuando utiliza la característica de alta disponibilidad en máquinas Linux para S/390 con el controlador de red qeth, puede que los Dispatcher activo y en espera no se sincronicen. Este problema podría limitarse a Linux Kernel 2.6.

    Si aparece este problema, utilice este método alternativo:

    Defina un dispositivo de red de canal a canal (CTC) entre las imágenes de Dispatcher activa y en espera y añada pulsos entre las dos direcciones IP de punto final de CTC.

    Problema: sugerencias para configurar la alta disponibilidad

    Con la función de alta disponibilidad de Load Balancer, una máquina asociada puede tomar el control del equilibrio de carga si la máquina asociada primaria sufre una anomalía o se apaga. Para mantener conexiones entre las máquinas asociadas de alta disponibilidad, se pasan entre ellas registros de conexión. Cuando la máquina asociada en espera toma el control de la función de equilibrio de carga, la dirección IP de clúster se suprime de la máquina en espera y se añade a la nueva máquina primaria. Esta operación de toma de control puede verse afectada por muchos factores de tiempo y configuración.

    Las sugerencias que se detallan en este apartado puede ayudarle a reducir la cantidad de problemas derivados de los problemas de configuración de alta disponibilidad, como por ejemplo:

    Las siguientes sugerencias le ayudarán a configurar correctamente la característica de alta disponibilidad de las máquinas de Load Balancer.

    Nota:
    Si desea información sobre cómo configurar la característica de alta disponibilidad, consulte el apartado Alta disponibilidad.

    Problema: en Linux, limitaciones cuando se utilizan servidores zSeries o S/390 que disponen de tarjetas OSA (Open System Adapter)

    En general, cuando se utiliza el método de reenvío MAC, los servidores de la configuración de Load Balancer deben estar todos en el mismo segmento de red misma, independientemente de la plataforma. Los dispositivos de red activos como el direccionador, los puentes y los cortafuegos dificultan el funcionamiento de Load Balancer. Esto se debe a las funciones de Load Balancer, como un direccionador especializado, que sólo modifican las cabeceras de capa de enlace para su salto siguiente y final. Cualquier topología de red en la que el salto siguiente no sea el último salto no es válida para Load Balancer.

    Nota:
    Los túneles, como los dispositivos de canal a canal (CTC) o el vehículo de comunicación entre usuarios (IUCV) suelen recibir soporte. Sin embargo, Load Balancer debe reenviar a través del túnel directamente al destino final, no puede ser un túnel de red a red.

    Se trata de una limitación para los servidores zSeries y S/390 que comparten la tarjeta OSA, porque este adaptador opera de forma distinta a la mayoría de las tarjetas de red. La tarjeta OSA dispone de una implementación de capa de enlace propia, que no tiene nada que ver con Internet, que se muestra a los hosts Linux y z/OS por detrás. En efecto, las tarjetas OSA se comunican como si fueran sistemas de Ethernet a Ethernet (no como hosts OSA) y los hosts que la utilizan responderán como si fueran Ethernet.

    La tarjeta OSA también lleva a cabo algunas funciones que se relacionan directamente con la capa IP. Un ejemplo de la función que realiza es responder a peticiones ARP (Address Resolution Protocol). Otra función es que la tarjeta OSA compartida direcciona los paquetes IP en base a la dirección IP de destino, en lugar de una dirección Ethernet como un conmutador de capa 2. En efecto, la tarjeta OSA es en sí un segmento de red con puente.

    Load Balancer ejecutándose en un host S/390 Linux o zSeries Linux puede efectuar reenvíos a hosts en el mismo OSA o a hosts en Ethernet. Todos los hosts que comparten OSA están en efecto en el mismo segmento.

    Load Balancer puede reenviar fuera de una tarjeta OSA compartida debido a la naturaleza del puente de OSA. El puente reconoce el puerto OSA propietario de la dirección IP de clúster. El puente reconoce la dirección MAC de los hosts conectados directamente con el segmento Ethernet. Por lo tanto, Load Balancer puede utilizar el reenvío MAC a través de un puente OSA.

    Sin embargo, Load Balancer no puede realizar reenvíos a una tarjeta OSA compartida. Esto incluye Load Balancer en un sistema S/390 Linux cuando el servidor de activar está en una tarjeta OSA distinta de la de Load Balancer. La tarjeta OSA correspondiente al servidor de servidor anuncia la dirección MAC de OSA para la dirección IP del servidor, pero cuando llega un paquete con la dirección de destino Ethernet de la tarjeta OSA del servidor y la dirección IP del clúster, la tarjeta OSA del servidor no sabe cuál de los hosts, si hay alguno, debe recibir dicho paquete. Los mismos principios que permiten que el reenvío MAC de OSA a Ethernet funcione fuera de una tarjeta OSA compartida no se aplican al intentar el reenvío a una tarjeta OSA compartida.

    Método alternativo:

    En configuraciones de Load Balancer que utilizan servidores zSeries o S/390 que tienen tarjetas OSA; hay dos enfoques que puede utilizar para resolver temporalmente el problema descrito.

    1. Utilización de características de plataforma

      Si los servidores de la configuración de Load Balancer están en el mismo tipo de plataforma zSeries o S/390, puede definir conexiones de punto a punto (CTC o IUCV) entre Load Balancer y cada servidor. Configurar los puntos finales con direcciones IP privadas. La conexión de punto a punto sólo se utiliza para el tráfico de Load Balancer a servidor. A continuación, añada los servidores con la dirección IP del punto final de servidor del túnel. Con esta configuración, el tráfico de clúster atraviesa la tarjeta OSA de Load Balancer y se reenvía a través de la conexión punto a punto donde el servidor responde mediante su propia ruta predeterminada. La respuesta utiliza la tarjeta OSA del servidor para enviarse, que puede o no ser la misma tarjeta.

    2. Utilización de la característica GRE de Load Balancer

      Si los servidores de la configuración de Load Balancer no están en el mismo tipo de plataforma zSeries o S/390, o si no es posible definir una conexión de punto a punto entre Load Balancer y cada servidor, se recomienda utilizar la característica GRE (encapsulamiento genérico de direccionamiento) de Load Balancer, que es un protocolo que permite a Load Balancer realizar reenvíos a través de direccionadores.

      Al utilizar GRE, Load Balancer recibe el paquete de IP cliente -> clúster encapsulado y lo envía al servidor. En el servidor, el paquete IP de cliente -> clúster original se excapsula y el servidor responde directamente al cliente. La ventaja de utilizar GRE es que Load Balancer sólo detecta el tráfico de cliente a servidor, no detecta el tráfico de servidor a cliente. La desventaja es que reduce el tamaño de segmento máximo (MSS) de la conexión TCP debido a la carga adicional de encapsulación.

      Para configurar Load Balancer para realizar reenvíos con encapsulación GRE, añada los servidores utilizando el siguiente mandato:

      dscontrol server add dir_clúster:puerto:servidor_programa_fondo router
      servidor_programa_fondo 
      

      Donde router backend_server es válido si Load Balancer y el servidor de programa de fondo están en la misma subred IP. De lo contrario, especifique como direccionador la dirección IP válida del salto siguiente.

      Para configurar sistemas Linux para realizar la excapsulación GRE nativa, para cada servidor de programa de fondo, emita los siguientes mandatos:

      modprobe ip_gre 
      ip tunnel add grelb0 mode gre ikey 3735928559 
      ip link set grelb0 up 
      ip addr add dir_clúster dev grelb0
      
      Nota:
      No defina la dirección de clúster en el bucle de retorno de los servidores de programa de fondo. Cuando se utilizan servidores de programa de fondo z/OS, se deben utilizar mandatos específicos de z/O2 para configurar los servidores para realizar la excapsulación GRE.

    Problema: en algunas versiones de Linux, se produce una pérdida de memoria al ejecutar Dispatcher configurado con el gestor y los asesores

    En algunas versiones de Linux Red Hat, cuando se ejecuta Load Balancer configurado con las características de gestor y asesor, pueden producirse pérdidas de memoria importantes. La pérdida de memoria Java aumenta si configura un valor pequeño de intervalo de tiempo para el asesor.

    Las versiones de la MVM de SDK Java de IBM y la biblioteca de hebras POSIX nativa (NPTL) que se entregan con algunas distribuciones Linux, como Red Hat Enterprise Linux 3.0, pueden hacer que se produzca la pérdida de memoria. La biblioteca de hebras mejorada NPTL que se proporciona con algunas distribuciones de sistemas Linux como Red Hat Enterprise Linux 3.0 da soporte a NPTL.

    Consulte http://www.ibm.com/developerworks/java/jdk/linux/tested.html para obtener la última información sobre sistemas Linux y el SDK Java de IBM que se entrega con estos sistemas.

    Como herramienta de determinación de problemas, utilice el mandato vmstat o ps para detectar pérdidas de memoria.

    Para corregir la pérdida de memoria, emita el siguiente mandato antes de ejecutar la máquina Load Balancer para así inhabilitar la biblioteca NPTL:

    export LD_ASSUME_KERNEL=2.4.10
    

    Problema: en SUSE Linux Enterprise Server 9, Dispatcher reenvía paquetes, pero los paquetes no llegan al servidor de programa de fondo

    En SuSe Linux Enterprise Server 9, cuando se utiliza el método de reenvío MAC, el informe de Dispatcher puede indicar que se ha reenviado el paquete (la cuenta de paquetes aumenta); sin embargo, el paquete nunca llega al servidor de programa de fondo.

    Cuando aparece este problema, puede observar uno de estos comportamientos o ambos:

    Este problema puede deberse al módulo NAT de tablas ip que se carga. En SLES 9, hay un posible error, aunque sin confirmar, que provoca un comportamiento extraño al interactuar con Dispatcher.

    Solución:

    Descargue el módulo NAT de iptables y el módulo de seguimiento de conexiones.

    Por ejemplo:

    # lsmod | grep ip
            iptable_filter          3072  0
            iptable_nat            22060  0
            ip_conntrack           32560  1 iptable_nat
            ip_tables              17280  2 
    iptable_filter,iptable_nat
            ipv6                  236800  19
            # rmmod iptable_nat
            # rmmod ip_conntrack 
    

    Elimine los módulos en el orden de utilización. De manera específica, puede eliminar un módulo sólo si la cuenta de referencia (la última columna de la salida lsmod) es cero. Si ha configurado alguna regla en iptables, debe eliminarla. Por ejemplo: iptables -t nat -F.

    El módulo iptable_nat utiliza ip_conntrack, por lo que primero se debe eliminar el módulo iptable_nat y, a continuación, el módulo ip_conntrack.

    Nota:
    Con sólo tratar de listar las reglas configuradas en una tabla se carga el módulo correspondiente; por ejemplo, iptables -t nat -L. Asegúrese de no ejecutar este mandato después de haber eliminado los módulos.

    Problema: en sistemas Windows, se muestra un mensaje de conflicto de dirección IP durante la toma de control de alta disponibilidad

    En sistemas Windows, si ejecuta la característica de alta disponibilidad de Load Balancer, los scripts go* se utilizan para configurar la dirección IP de clúster en el sistema activo de Load Balancer y para desconfigurar la dirección IP de clúster del sistema de reserva cuando se produce una toma de control. Si se ejecuta el script go* que configura la dirección IP de clúster de la máquina activa antes de ejecutar el script go* para desconfigurar la dirección IP de clúster de la máquina en espera, pueden surgir problemas. Es posible que aparezca una ventana emergente que le indique que el sistema ha detectado un conflicto entre direcciones IP. Si ejecuta el mandato ipconfig \all, también puede ver que aparece una dirección IP 0.0.0.0 de la máquina.

    Solución:

    Emita el mandato siguiente para desconfigurar manualmente la dirección IP de clúster de la máquina primaria:

    dscontrol executor unconfigure IP_clúster
    

    De esta manera se elimina la dirección 0.0.0.0 de la pila IP de Windows.

    Una vez que la máquina asociada de alta disponibilidad libera la dirección IP de clúster, emita el siguiente mandato para volver a añadir manualmente la dirección IP de clúster:

    dscontrol executor configure IP_clúster
    

    Después de emitir este mandato, busque de nuevo la dirección IP de clúster en la pila IP de Windows emitiendo el siguiente mandato:

    ipconfig /all
    

    Problema: en sistemas Linux, iptables puede impedir el direccionamiento de paquetes

    iptables en Linux pueden dificultar el equilibrio de carga y debe estar inhabilitado en la máquina de Dispatcher.

    Emita el mandato siguiente para determinar si se han cargado iptables:

    lsmod | grep ip_tables
    

    La salida del mandato anterior puede ser parecida a la siguiente:

    ip_tables         22400   3
    iptable_mangle,iptable_nat,iptable_filter
    

    Emita el siguiente mandato para cada iptable que aparece en la salida para visualizar las reglas de las tablas:

    iptables -t <nombre_abreviado> -L
    

    Por ejemplo:

    iptables -t mangle -L 
    iptables -t nat    -L
    iptables -t filter -L 
    

    Si iptable_nat se ha cargado, se debe descargar. Puesto que iptable_nat tiene una dependencia en iptable_conntrack, también se debe eliminar iptable_conntrack. Emita el mandato siguiente para descargar estos dos iptables:

    rmmod iptable_nat iptable_conntrack
    

    Aparece un mensaje de aviso Java al instalar arreglos de servicio

    Load Balancer proporciona un conjunto de archivos Java junto con la instalación del producto. La instalación de producto consta de varios paquetes que no es necesario instalar en la misma máquina. Un ejemplo de ello es el paquete de Metric Server, el paquete de administración y el paquete base. Todos estos paquetes de código requieren un conjunto de archivos Java para funcionar, aunque cada uno de los tres paquetes puede instalarse en una máquina distinta. Como tal, cada uno de estos paquetes instala un conjunto de archivos Java. Cuando se instalan en la misma máquina, cada uno de estos conjuntos de archivos será propietario del conjunto de archivos Java. Al instalar el segundo y tercer conjunto de datos Java, recibirá mensajes de aviso indicando que el conjunto de archivos Java también es propiedad de otro conjunto de archivos.

    Al instalar código utilizando los métodos de instalación nativos (por ejemplo, installp en AIX), debe ignorar los mensajes de aviso que comunican que el conjunto de archivos Java es propiedad de otro conjunto de archivos.

    Actualización del conjunto de archivos Java con la instalación de Load Balancer

    Durante el proceso de instalación de Load Balancer, también se instala un conjunto de archivos Java. Load Balancer será la única aplicación que utilice la versión Java que se instala con el producto. No debe actualizar esta versión del conjunto de archivos Java sin ayuda especializada. Si hay un problema que requiera una actualización del conjunto de archivos Java, debe notificarlo al servicio de IBM para actualizar al nivel de arreglo oficial el conjunto de archivos Java que se envía con Load Balancer.

    Problema: pueden cerrarse conexiones permanentes durante la toma de control de alta disponibilidad

    En sistemas operativos Microsoft Windows, es posible que las conexiones permanentes se caigan durante una operación de toma de control de alta disponibilidad. Este problema se produce sólo cuando dispone de un servidor compartido que utiliza el método de reenvío MAC.

    Cuando se suprime la dirección IP del clúster, ya sea desde la interfaz Ethernet o la interfaz de bucle de retorno, se liberan todas las conexiones de esta dirección IP. Cuando el sistema operativo recibe un paquete en una conexión que se ha liberado, envía una respuesta RST al cliente y termina la conexión.

    Si no puede permitir que las conexiones se cierren durante una toma de control de alta disponibilidad, no debería utilizar un servidor con ubicación compartida en sistemas operativos Windows si utiliza el método de reenvío MAC.

    Problema: al instalar WebSphere Edge Server utilizando ./install en el sistema operativo Linux de 32 bits para zSeries se produce un mensaje "JVM no encontrada"

    El origen de este problema es un límite del instalador de Edge en sistemas operativos Linux de 32 bits para zSeries.

    Puede evitar este problema si lleva a cabo la instalación manual del sistema operativo Linux zSeries de 32 bits. Consulte el apartado Instalación para sistemas Linux para obtener más información.

    Problema: el proceso de desinstalación para WebSphere Edge Server se cierra en sistemas operativos Linux

    Este problema es el resultado de una limitación del instalador de Edge en sistemas operativos Linux.

    Para desinstalar WebSphere Edge Server en un sistema operativo Linux, deberá desinstalar manualmente el producto. Para desinstalar el producto completo, entre el mandato rpm -e 'rpm -qa | grep ibmlb'

    Para desinstalar un paquete individual, entre el mandato rpm -e <nombre paquete>. Puede encontrar los nombres de paquete en la sección Instalación para sistemas Linux; recuerde que debe desinstalar los paquetes en el orden contrario en el que fueron instalados.


    Resolución de problemas comunes--CBR

    Problema: no se ejecutará CBR

    Este problema puede producirse si otra aplicación utiliza uno de los puertos que CBR utiliza. Para obtener más información, consulte el apartado Comprobación de los números de puerto de CBR.

    Problema: el mandato cbrcontrol o lbadmin da un error

    1. El mandato cbrcontrol devuelve: Error: el servidor no responde . O bien, el mandato lbadmin devuelve: Error: no es posible acceder al servidor RMI. Estos errores pueden producirse si su máquina tiene una pila con SOCKS. Para corregir este problema, edite el archivo socks.cnf para incluir las líneas siguientes:
      EXCLUDE-MODULE java
      EXCLUDE-MODULE javaw
      
    2. Las consolas de administración de las interfaces (línea de mandatos, interfaz gráfica de usuario y asistentes) de Load Balancer se comunican con cbrserver utilizando RMI (Remote Method Invocation). La comunicación predeterminada utiliza tres puertos; cada puerto se establece en el script de inicio de cbrserver:

      Esto puede producir problemas si una de las consolas de administración se ejecuta en la misma máquina que un cortafuegos o a través de un cortafuegos. Por ejemplo, cuando se ejecuta Load Balancer en la misma máquina que un cortafuegos y emite mandatos cbrcontrol, podrían aparecer errores como Error: el servidor no responde.

      Para impedir este problema, edite el archivo de scripts cbrserver para establecer el puerto utilizado por RMI para el cortafuegos (u otra aplicación). Cambie la línea: LB_RMISERVERPORT=11199 por LB_RMISERVERPORT=suPuerto. Donde suPuerto es otro puerto.

      Cuando haya terminado, reinicie cbrserver y abra el tráfico para los puertos: 11099, 10004, 11199 y 11100 o para el puerto seleccionado para la dirección del host desde donde se ejecutará la consola de administración.

    3. También se pueden producir estos errores si aún no ha iniciado cbrserver.

    Problema: no se equilibra la carga de las peticiones

    Se ha iniciado Caching Proxy y CBR, pero no se equilibra la carga de las peticiones. Este error puede aparecer si inicia Caching Proxy antes de iniciar el ejecutor. Si esto sucede, el archivo de anotaciones cronológicas stderr para Caching Proxy contendrá este mensaje de error: "ndServerInit: Could not attach to executor" (ndServerInit: no se ha podido conectar con el ejecutor). Para evitar que suceda este problema, inicie el ejecutor antes de iniciar Caching Proxy.

    Problema: en sistemas Solaris, el mandato cbrcontrol executor start da un error

    En sistemas Solaris, el mandato cbrcontrol executor start devuelve: "Error: el ejecutor no se ha iniciado". Aparece este error si no configura la IPC (Comunicación entre procesos) para el sistema de modo que el tamaño máximo de un segmento de memoria compartida y los ID de semáforo sean mayores que el valor predeterminado del sistema operativo. Para aumentar el tamaño del segmento compartido y de los ID de semáforo, debe editar el archivo /etc/system. Si desea más información sobre cómo configurar este archivo, consulte Modificación de los valores predeterminados para ICP (Inter-process Communication).

    Problema: error sintáctico o de configuración

    Si la regla de URL no funciona, esto puede deberse a un error sintáctico o de configuración. Para corregir este problema compruebe lo siguiente:

    Problema: en la plataforma Windows, se produce un comportamiento de la GUI inesperado al utilizar tarjetas de vídeo Matrox AGP

    En la plataforma Windows cuando utiliza una tarjeta Matrox AGP, puede aparecer un comportamiento inesperado en la GUI de Load Balancer. Cuando pulsa el ratón, podría dañarse un bloque de espacio ligeramente mayor que el puntero del ratón provocando una posible inversión del resaltado o un desplazamiento de imágenes fuera del lugar de la pantalla. Las tarjetas Matrox anteriores no han mostrado este comportamiento. No hay un fix pack conocido cuando se utilizan tarjetas Matrox AGP.

    Problema: se produce una desconexión del host si se cambia el tamaño de la ventana del navegador Netscape cuando se utiliza la administración Web

    Si utiliza la administración Web remota para configurar Load Balancer, no cambie el tamaño (Minimizar, Maximizar, Restaurar minimizando, etc.) de la ventana del navegador Netscape en la que aparece la GUI de Load Balancer. Dado que Netscape vuelve a cargar una página cada vez que se cambia el tamaño de la ventana del navegador, esto provocará una desconexión del host. Tendrá que volver a conectar con el host cada vez que cambie el tamaño de la ventana. Si realiza administración Web remota en la plataforma Windows, utilice Internet Explorer.

    Problema: en plataformas Windows, aparecen caracteres nacionales Latin-1 dañados en la ventana de indicador de mandatos

    En ventanas de indicador de mandatos del sistema operativo Windows, quizá algunos caracteres nacionales de la familia Latin-1 aparezcan dañados. Por ejemplo, la letra "a" con una tilde podría mostrarse como el símbolo pi. Para corregir esto, debe cambiar las propiedades de font de la ventana de línea de mandatos. Para cambiar el font, realice lo siguiente:

    1. Pulse en el icono en la esquina superior izquierda de la ventana de indicador de mandatos
    2. Seleccione Propiedades, luego pulse la pestaña Fuente
    3. El font predeterminado es Fuentes de mapa de bits; cambie este valor por Lucida Console y pulse Aceptar

    Problema: en HP-UX, se produce un error de falta de memoria/hebra de Java

    Algunas instalaciones de HP-UX 11i están preconfiguradas para sólo permitir 64 hebras por proceso. No obstante, algunas configuraciones de Load Balancer requieren una cantidad mayor. En los sistemas HP-UX, establezca las hebras por proceso como mínimo en 256. Para aumentar este valor, utilice el programa de utilidad "sam" para establecer el parámetro de kernel max_thread_proc. Si se espera un uso masivo, puede ser necesario aumentar max_thread_proc por encima de 256.

    Para aumentar max_thread_proc, consulte los pasos de la sección Problema: en HP-UX, se produce un error de hebra/sin memoria de Java.

    Problema: en los sistemas Windows, los asesores y los destinos de alcance marcan como inactivos todos los servidores

    Cuando configura el adaptador en una máquina de Load Balancer, debe asegurarse de que los dos valores siguientes son correctos para que el asesor funcione:

    Si desea instrucciones sobre cómo configurar este valor, consulte la página Problema: en los sistemas Windows, los asesores y los destinos de alcance marcan como inactivos todos los servidores.

    Problema: en sistemas Windows, se resuelve la dirección IP con el nombre de host cuando se ha configurado más de una dirección con el adaptador

    En la plataforma Windows, cuando configura un adaptador con más de una dirección IP, configure la dirección IP que desea afiliar al nombre de host primero del registro.

    Puesto que Load Balancer depende de InetAddress.getLocalHost() en muchas instancias (por ejemplo, lbkeys create), varias direcciones IP que tienen un alias con un sólo adaptador podrían provocar problemas. Para impedir este problema, enumere la dirección IP con la que desea que se resuelva la dirección IP primero en el registro.

    Consulte la página Problema: en la plataforma Windows, se resuelve la dirección IP con el nombre de host cuando se ha configurado más de una dirección con el adaptador si desea obtener los pasos para configurar el nombre de host primero en el registro.


    Resolución de problemas comunes--Site Selector

    Problema: no se ejecutará Site Selector

    Este problema puede producirse si otra aplicación utiliza uno de los puertos que Site Selector utiliza. Para obtener más información, consulte el apartado Comprobación de los números de puerto de Site Selector.

    Problema: Site Selector no utiliza el algoritmo de turno rotativo en el tráfico de clientes Solaris

    Síntoma: el componente Site Selector no utiliza el algoritmo de turno rotativo para peticiones entrantes de clientes Solaris.

    Causa posible: los sistemas Solaris ejecutan un "daemon de caché del servicio de nombres. Si este daemon está en ejecución, se contestará la petición subsiguiente del solucionador de esta memoria caché en lugar de consultar Site Selector.

    Solución: desactive el daemon del servicio de nombres en la máquina de Solaris.

    Problema: el mandato sscontrol o lbadmin da un error

    1. El mandato sscontrol devuelve: Error: el servidor no responde . O bien, el mandato lbadmin devuelve: Error: no es posible acceder al servidor RMI. Estos errores pueden producirse si su máquina tiene una pila con SOCKS. Para corregir este problema, edite el archivo socks.cnf para incluir las líneas siguientes:
      EXCLUDE-MODULE java
      EXCLUDE-MODULE javaw
      
    2. Las consolas de administración de las interfaces (línea de mandatos, interfaz gráfica de usuario y asistentes) de Load Balancer se comunican con ssserver utilizando RMI (Remote Method Invocation). La comunicación predeterminada utiliza tres puertos; cada puerto se establece en el script de inicio de ssserver:

      Esto puede producir problemas si una de las consolas de administración se ejecuta en la misma máquina que un cortafuegos o a través de un cortafuegos. Por ejemplo, cuando se ejecuta Load Balancer en la misma máquina que un cortafuegos y emite mandatos sscontrol, podrían aparecer errores como Error: el servidor no responde.

      Para impedir este problema, edite el archivo de scripts ssserver para establecer el puerto utilizado por RMI para el cortafuegos (u otra aplicación). Cambie la línea: LB_RMISERVERPORT=10199 por LB_RMISERVERPORT=suPuerto. Donde suPuerto es otro puerto.

      Cuando haya terminado, reinicie ssserver y abra el tráfico para los puertos: 12099, 10004, 12199 y 12100 o para el puerto seleccionado para la dirección del host desde donde se ejecutará la consola de administración.

    3. También se pueden producir estos errores si aún no ha iniciado ssserver.

    Problema: no se ha podido iniciar ssserver en la plataforma Windows

    Site Selector debe ser capaz de participar en un DNS. Todas las máquinas que intervienen en la configuración también deberían participar de este sistema. Los sistemas Windows no siempre requieren que el nombre de host configurado esté en el DNS. Site Selector requiere que su nombre de host se defina en el DNS para que se inicie correctamente.

    Verifique que este host se ha definido en el DNS. Edite el archivo ssserver.cmd y elimine la "w" de "javaw". Esto debe proporcionar más información sobre errores.

    Problema: Site Selector con rutas duplicadas no equilibra la carga correctamente

    El servidor de nombres de Site Selector no se enlaza a ninguna dirección en la máquina. Responderá a peticiones destinadas para cualquier dirección IP válida en la máquina. Site Selector confía en el sistema operativo para direccionar la respuesta de nuevo al cliente. Si la máquina de Site Selector tiene varios adaptadores y cualquier número de ellos está conectado a la misma subred, es posible que el O/S enviará la respuesta al cliente desde una dirección distinta de donde la ha recibido. Algunas aplicaciones cliente no aceptarán una respuesta recibida de una dirección que no sea de donde se ha enviado. Como consecuencia, parecerá que la resolución de nombres da un error.

    Problema: en la plataforma Windows, se produce un comportamiento de la GUI inesperado al utilizar tarjetas de vídeo Matrox AGP

    En la plataforma Windows cuando utiliza una tarjeta Matrox AGP, puede aparecer un comportamiento inesperado en la GUI de Load Balancer. Cuando pulsa el ratón, podría dañarse un bloque de espacio ligeramente mayor que el puntero del ratón provocando una posible inversión del resaltado o un desplazamiento de imágenes fuera del lugar de la pantalla. Las tarjetas Matrox anteriores no han mostrado este comportamiento. No hay un fix pack conocido cuando se utilizan tarjetas Matrox AGP.

    Problema: se produce una desconexión del host si se cambia el tamaño de la ventana del navegador Netscape cuando se utiliza la administración Web

    Si utiliza la administración Web remota para configurar Load Balancer, no cambie el tamaño (Minimizar, Maximizar, Restaurar minimizando, etc.) de la ventana del navegador Netscape en la que aparece la GUI de Load Balancer. Dado que Netscape vuelve a cargar una página cada vez que se cambia el tamaño de la ventana del navegador, esto provocará una desconexión del host. Tendrá que volver a conectar con el host cada vez que cambie el tamaño de la ventana. Si realiza administración Web remota en la plataforma Windows, utilice Internet Explorer.

    Problema: en plataformas Windows, aparecen caracteres nacionales Latin-1 dañados en la ventana de indicador de mandatos

    En ventanas de indicador de mandatos del sistema operativo Windows, quizá algunos caracteres nacionales de la familia Latin-1 aparezcan dañados. Por ejemplo, la letra "a" con una tilde podría mostrarse como el símbolo pi. Para corregir esto, debe cambiar las propiedades de font de la ventana de línea de mandatos. Para cambiar el font, realice lo siguiente:

    1. Pulse en el icono en la esquina superior izquierda de la ventana de indicador de mandatos
    2. Seleccione Propiedades, luego pulse la pestaña Fuente
    3. El font predeterminado es Fuentes de mapa de bits; cambie este valor por Lucida Console y pulse Aceptar

    Problema: en HP-UX, se produce un error de falta de memoria/hebra de Java

    Algunas instalaciones de HP-UX 11i están preconfiguradas para sólo permitir 64 hebras por proceso. No obstante, algunas configuraciones de Load Balancer requieren una cantidad mayor. En los sistemas HP-UX, establezca las hebras por proceso como mínimo en 256. Para aumentar este valor, utilice el programa de utilidad "sam" para establecer el parámetro de kernel max_thread_proc. Si se espera un uso masivo, puede ser necesario aumentar max_thread_proc por encima de 256.

    Para aumentar max_thread_proc, consulte los pasos de la página Problema: en HP-UX, se produce un error de falta de memoria/hebra de Java.

    Problema: en los sistemas Windows, los asesores y los destinos de alcance marcan como inactivos todos los servidores

    Cuando configura el adaptador en una máquina de Load Balancer, debe asegurarse de que los dos valores siguientes son correctos para que el asesor funcione:

    Si desea instrucciones sobre cómo configurar este valor, consulte la página Problema: en los sistemas Windows, los asesores y los destinos de alcance marcan como inactivos todos los servidores.


    Resolución de problemas comunes--Cisco CSS Controller

    Problema: no se iniciará ccoserver

    Este problema puede producirse si otra aplicación utiliza uno de los puertos utilizados por el ccoserver de Cisco CSS Controller. Para obtener más información, consulte el apartado Comprobación de los números de puerto de Cisco CSS Controller.

    Problema: el mandato ccocontrol o lbadmin da un error

    1. El mandato ccocontrol devuelve: Error: el servidor no responde . O bien, el mandato lbadmin devuelve: Error: no es posible acceder al servidor RMI. Estos errores pueden producirse si su máquina tiene una pila con SOCKS. Para corregir este problema, edite el archivo socks.cnf para incluir las líneas siguientes:
      EXCLUDE-MODULE java
      EXCLUDE-MODULE javaw
      
    2. Las consolas de administración de las interfaces (línea de mandatos e interfaz gráfica de usuario) de Load Balancer se comunican con ccoserver utilizando RMI (Remote Method Invocation). La comunicación predeterminada utiliza tres puertos; cada puerto se establece en el script de inicio de ccoserver:

      Esto puede producir problemas si una de las consolas de administración se ejecuta en la misma máquina que un cortafuegos o a través de un cortafuegos. Por ejemplo, cuando se ejecuta Load Balancer en la misma máquina que un cortafuegos y emite mandatos ccocontrol, podrían aparecer errores como Error: el servidor no responde.

      Para impedir este problema, edite el archivo de scripts ccoserver para establecer el puerto utilizado por RMI para el cortafuegos (u otra aplicación). Cambie la línea: CCO_RMISERVERPORT=14199 por CCO_RMISERVERPORT= suPuerto. Donde suPuerto es otro puerto.

      Cuando haya terminado, reinicie ccoserver y abra el tráfico para los puertos: 13099, 10004, 13199 y 13100 o para el puerto seleccionado para la dirección del host desde donde se ejecutará la consola de administración.

    3. También se pueden producir estos errores si aún no ha iniciado ccoserver.

    Problema: no se ha podido crear el registro en el puerto 13099

    Este problema puede aparecer si falta una licencia del producto válida. Cuando intenta iniciar ccoserver, recibe este mensaje:

    La licencia ha caducado. Póngase en contacto
    con el representante local de IBM o un distribuidor autorizado de IBM. 

    Para corregir este problema:

    1. Si ya ha intentado iniciar ccoserver, escriba ccoserver stop.
    2. Copie la licencia válida al directorio ...ibm/edge/lb/servers/conf .
    3. Escriba ccoserver para iniciar el servidor.

    Problema: en la plataforma Windows, se produce un comportamiento de la GUI inesperado al utilizar tarjetas de vídeo Matrox AGP

    En la plataforma Windows cuando utiliza una tarjeta Matrox AGP, puede aparecer un comportamiento inesperado en la GUI de Load Balancer. Cuando pulsa el ratón, podría dañarse un bloque de espacio ligeramente mayor que el puntero del ratón provocando una posible inversión del resaltado o un desplazamiento de imágenes fuera del lugar de la pantalla. Las tarjetas Matrox anteriores no han mostrado este comportamiento. No hay un fix pack conocido cuando se utilizan tarjetas Matrox AGP.

    Problema: se ha recibido un error de conexión al añadir un consultor

    Cuando añade un consultor, podría experimentar un error de conexión debido a valores de configuración incorrectos. Para corregir este problema:

    Problema: no se actualizan los pesos en el conmutador

    Para corregir este problema:

    Problema: el mandato refresh no ha actualizado la configuración del consultor

    Aumente el nivel de anotaciones cronológicas del consultor y vuelva a intentar el mandato. Si vuelve a dar un error, busque en el archivo de anotaciones cronológicas si se ha excedido el tiempo de espera SNMP u otros errores de comunicación SNMP.

    Problema: se produce una desconexión del host si se cambia el tamaño de la ventana del navegador Netscape cuando se utiliza la administración Web

    Si utiliza la administración Web remota para configurar Load Balancer, no cambie el tamaño (Minimizar, Maximizar, Restaurar minimizando, etc.) de la ventana del navegador Netscape en la que aparece la GUI de Load Balancer. Dado que Netscape vuelve a cargar una página cada vez que se cambia el tamaño de la ventana del navegador, esto provocará una desconexión del host. Tendrá que volver a conectar con el host cada vez que cambie el tamaño de la ventana. Si realiza administración Web remota en la plataforma Windows, utilice Internet Explorer.

    Problema: en plataformas Windows, aparecen caracteres nacionales Latin-1 dañados en la ventana de indicador de mandatos

    En ventanas de indicador de mandatos del sistema operativo Windows, quizá algunos caracteres nacionales de la familia Latin-1 aparezcan dañados. Por ejemplo, la letra "a" con una tilde podría mostrarse como el símbolo pi. Para corregir esto, debe cambiar las propiedades de font de la ventana de línea de mandatos. Para cambiar el font, realice lo siguiente:

    1. Pulse en el icono en la esquina superior izquierda de la ventana de indicador de mandatos
    2. Seleccione Propiedades, luego pulse la pestaña Fuente
    3. El font predeterminado es Fuentes de mapa de bits; cambie este valor por Lucida Console y pulse Aceptar

    Problema: en HP-UX, se produce un error de falta de memoria/hebra de Java

    Algunas instalaciones de HP-UX 11i están preconfiguradas para sólo permitir 64 hebras por proceso. No obstante, algunas configuraciones de Load Balancer requieren una cantidad mayor. En los sistemas HP-UX, establezca las hebras por proceso como mínimo en 256. Para aumentar este valor, utilice el programa de utilidad "sam" para establecer el parámetro de kernel max_thread_proc. Si se espera un uso masivo, puede ser necesario aumentar max_thread_proc por encima de 256.

    Para aumentar max_thread_proc, consulte los pasos de la página Problema: en HP-UX, se produce un error de falta de memoria/hebra de Java.


    Resolución de problemas comunes--Nortel Alteon Controller

    Problema: no se iniciará nalserver

    Este problema puede producirse si otra aplicación utiliza uno de los puertos utilizados por el nalserver de Nortel Alteon Controller. Para obtener más información, consulte el apartado Comprobación de los números de puerto de Nortel Alteon Controller.

    Problema: el mandato nalcontrol o lbadmin da un error

    1. El mandato nalcontrol devuelve: Error: el servidor no responde . O bien, el mandato lbadmin devuelve: Error: no es posible acceder al servidor RMI. Estos errores pueden producirse si su máquina tiene una pila con SOCKS. Para corregir este problema, edite el archivo socks.cnf para incluir las líneas siguientes:
      EXCLUDE-MODULE java
      EXCLUDE-MODULE javaw
      
    2. Las consolas de administración de las interfaces (línea de mandatos e interfaz gráfica de usuario) de Load Balancer se comunican con nalserver utilizando RMI (Remote Method Invocation). La comunicación predeterminada utiliza tres puertos; cada puerto se establece en el script de inicio de nalserver:

      Esto puede producir problemas si una de las consolas de administración se ejecuta en la misma máquina que un cortafuegos o a través de un cortafuegos. Por ejemplo, cuando se ejecuta Load Balancer en la misma máquina que un cortafuegos y emite mandatos nalcontrol, podrían aparecer errores como Error: el servidor no responde.

      Para impedir este problema, edite el archivo de scripts nalserver para establecer el puerto utilizado por RMI para el cortafuegos (u otra aplicación). Cambie la línea: NAL_RMISERVERPORT=14199 por NAL_RMISERVERPORT= suPuerto. Donde suPuerto es otro puerto.

      Cuando haya terminado, reinicie nalserver y abra el tráfico para los puertos: 14099, 10004, 14199 y 14100 o para el puerto seleccionado para la dirección del host desde donde se ejecutará la consola de administración.

    3. También se pueden producir estos errores si aún no ha iniciado nalserver.

    Problema: no se ha podido crear el registro en el puerto 14099

    Este problema puede aparecer si falta una licencia del producto válida. Cuando intenta iniciar nalserver, recibe este mensaje:

    La licencia ha caducado. Póngase en contacto
    con el representante local de IBM o un distribuidor autorizado de IBM. 

    Para corregir este problema:

    1. Si ya ha intentado iniciar nalserver, escriba nalserver stop.
    2. Copie la licencia válida al directorio ...ibm/edge/lb/servers/conf .
    3. Escriba nalserver para iniciar el servidor.

    Problema: en la plataforma Windows, se produce un comportamiento de la GUI inesperado al utilizar tarjetas de vídeo Matrox AGP

    En la plataforma Windows cuando utiliza una tarjeta Matrox AGP, puede aparecer un comportamiento inesperado en la GUI de Load Balancer. Cuando pulsa el ratón, podría dañarse un bloque de espacio ligeramente mayor que el puntero del ratón provocando una posible inversión del resaltado o un desplazamiento de imágenes fuera del lugar de la pantalla. Las tarjetas Matrox anteriores no han mostrado este comportamiento. No hay un fix pack conocido cuando se utilizan tarjetas Matrox AGP.

    Problema: se produce una desconexión del host si se cambia el tamaño de la ventana del navegador Netscape cuando se utiliza la administración Web

    Si utiliza la administración Web remota para configurar Load Balancer, no cambie el tamaño (Minimizar, Maximizar, Restaurar minimizando, etc.) de la ventana del navegador Netscape en la que aparece la GUI de Load Balancer. Dado que Netscape vuelve a cargar una página cada vez que se cambia el tamaño de la ventana del navegador, esto provocará una desconexión del host. Tendrá que volver a conectar con el host cada vez que cambie el tamaño de la ventana. Si realiza administración Web remota en la plataforma Windows, utilice Internet Explorer.

    Problema: se ha recibido un error de conexión al añadir un consultor

    Cuando añade un consultor, podría experimentar un error de conexión debido a valores de configuración incorrectos. Para corregir este problema:

    Problema: no se actualizan los pesos en el conmutador

    Para corregir este problema:

    Problema: el mandato refresh no ha actualizado la configuración del consultor

    Aumente el nivel de anotaciones cronológicas del consultor y vuelva a intentar el mandato. Si vuelve a dar un error, busque en el archivo de anotaciones cronológicas si se ha excedido el tiempo de espera SNMP u otros errores de comunicación SNMP.

    Problema: en sistemas Windows, aparecen caracteres nacionales Latin-1 dañados en la ventana de indicador de mandatos

    En ventanas de indicador de mandatos de la plataforma de sistema operativo Windows, quizá algunos caracteres nacionales de la familia Latin-1 aparezcan dañados. Por ejemplo, la letra "a" con una tilde podría mostrarse como el símbolo pi. Para corregir esto, debe cambiar las propiedades de font de la ventana de línea de mandatos. Para cambiar el font, realice lo siguiente:

    1. Pulse en el icono en la esquina superior izquierda de la ventana de indicador de mandatos
    2. Seleccione Propiedades, luego pulse la pestaña Fuente
    3. El font predeterminado es Fuentes de mapa de bits; cambie este valor por Lucida Console y pulse Aceptar

    Problema: en HP-UX, se produce un error de falta de memoria/hebra de Java

    Algunas instalaciones de HP-UX 11i están preconfiguradas para sólo permitir 64 hebras por proceso. No obstante, algunas configuraciones de Load Balancer requieren una cantidad mayor. En los sistemas HP-UX, establezca las hebras por proceso como mínimo en 256. Para aumentar este valor, utilice el programa de utilidad "sam" para establecer el parámetro de kernel max_thread_proc. Si se espera un uso masivo, puede ser necesario aumentar max_thread_proc por encima de 256.

    Para aumentar max_thread_proc, consulte los pasos de la página Problema: en HP-UX, se produce un error de falta de memoria/hebra de Java.


    Resolución de problemas comunes--Metric Server

    Problema: IOException de Metric Server en la plataforma Windows al ejecutar archivos de métrica del usuario .bat o .cmd

    Debe utilizar el nombre de métrica completo para métricas grabadas por el usuario en Metric Servers que se ejecutan en la plataforma Windows. Por ejemplo, debe especificar usermetric.bat en lugar de usermetric. El nombre usermetric es válido en la línea de mandatos, pero no funcionará cuando se ejecute desde dentro del entorno de ejecución. Si no utiliza el nombre de métrica completo, recibirá una IOException de Metric Server. Establezca la variable LOG_LEVEL en un valor de 3 en el archivo de mandatos metricserver, luego compruebe la salida de anotaciones cronológicas. En este ejemplo, aparece la excepción como:

     ... java.io.IOException: CreateProcess: usermetric error=2
    

    Problema: Metric Server no informa de las cargas en la máquina de Load Balancer

    Puede haber varios motivos por los que Metric Server no transmite la información de carga a Load Balancer. Para determinar la causa, realice estas comprobaciones:

    Problema: el archivo de anotaciones cronológicas de Metric Server informa de que "Es necesaria la firma para acceder al agente"

    El archivo de anotaciones cronológicas de Metric Server informa de este mensaje de error después de que se han transferido archivos al servidor.

    Este error se anota cuando el archivo de claves no supera la autorización con la clave emparejada debido a que se ha dañado la pareja. Para corregir este problema intente lo siguiente:

    Problema: en sistemas AIX, cuando se ejecuta Metric Server bajo mucha presión, la salida del mandato ps -vg podría dañarse

    Cuando ejecuta Metric Server bajo una gran presión en una plataforma AIX multiprocesador (4.3.3, de 32 bits 5.1 o de 64 bits 5.1), la salida del mandato ps -vg podría dañarse. Por ejemplo:

     55742 - A 88:19 42 18014398509449680  6396 32768 22 36 2.8 1.0 java -Xms
     
    

    El campo SIZE y/o RSS del mandato ps podría mostrar una cantidad excesiva de memoria utilizada.

    Este es un problema del kernel AIX conocido. Apar IY33804 corregirá este problema. Obtenga el fix pack del soporte de AIX en http://techsupport.services.ibm.com/server/fixes o póngase en contacto con el representante de soporte de AIX local.

    Problema: configuración de Metric Server en una configuración de dos niveles con el equilibrio de carga de Site Selector entre Dispatchers de alta disponibilidad

    En una configuración de Load Balancer de dos niveles, si se está equilibrando la carga de Site Selector (primer nivel) entre un par de asociados de alta disponibilidad de Dispatcher (segundo nivel), hay pasos que debe completar para configurar el componente Metric Server. Debe configurar Metric Server para que esté a la escucha en una nueva dirección IP que es específicamente para uso de Metric Server. En las dos máquinas de Dispatcher de alta disponibilidad, Metric Server está activo sólo en el Dispatcher activo.

    Para configurar correctamente esta configuración, complete estos pasos:

    Problema: los scripts, en ejecución en máquinas Solaris de varias CPU, producen mensajes de consola no deseados

    Cuando se ejecutan los scripts metricserver, cpuload y memload en máquinas Solaris de varias CPU pueden producir mensajes de consola no deseados. Este comportamiento se debe al uso del mandato de sistema VMSTAT para recopilar estadísticas de la CPU y de memoria del kernel. Algunos mensajes que VMSTAT devuelve indican que el estado del kernel ha cambiado. Los scripts no pueden gestionar estos mensajes, lo que provoca mensajes de consola innecesarios procedentes del shell.

    Ejemplos de estos mensajes de consola son:

    /opt/ibm/edge/lb/ms/script/memload[29]: TOTAL=: syntax error
    /opt/ibm/edge/lb/ms/script/memload[31]: LOAD=4*100/0: divide by zero
    /opt/ibm/edge/lb/ms/script/memload[29]: TOTAL=659664+: more tokens expected
    

    Estos mensajes se pueden ignorar.

    Problema: Después de iniciar Metric Server, el valor de métrica devuelve -1

    Este problema puede deberse a la pérdida de integridad de los archivos de claves durante la transferencia al cliente.

    Si utiliza FTP para transferir los archivos de claves desde la máquina de Load Balancer al servidor de programa de fondo, asegúrese de que está utilizando la modalidad binaria cuando utiliza los mandatos put o get para transferir archivos de claves al o desde el servidor FTP.


    Referencia de mandatos

    Esta parte proporciona información de referencia de mandatos para todos los componentes de Load Balancer. Contiene los capítulos siguientes:


    Cómo leer un diagrama de sintaxis

    El diagrama de sintaxis muestra cómo especificar un mandato para que el sistema operativo pueda interpretar correctamente lo que se escribe. Lea el diagrama de sintaxis de izquierda a derecha y de arriba a abajo, siguiendo la línea horizontal (la ruta principal).


    Símbolos y puntuación

    En los diagramas de sintaxis se utilizan los símbolos siguientes:

    Símbolo
    Descripción

    >>
    Marca el principio de la sintaxis de mandato.

    ><
    Marca el final de la sintaxis de mandato.

    Debe incluir todos los símbolos de puntuación, como dos puntos, comillas y signos menos que se muestran en el diagrama de sintaxis.


    Parámetros

    En los diagramas de sintaxis se utilizan los siguientes tipos de parámetros.

    Parámetro
    Descripción
    Necesario
    Los parámetros necesarios se muestran en la ruta principal.
    Opcional
    Los parámetros opcionales se muestran debajo de la ruta principal.

    Los parámetros se clasifican como palabras clave o variables. Las palabras clave se muestran en letras minúsculas y se pueden especificar en minúscula. Por ejemplo, un nombre de mandato es una palabra clave. Las variables van en cursiva y representan nombres o valores que se suministran.


    Ejemplos de sintaxis

    En el ejemplo siguiente, el mandato user es una palabra clave. La variable necesaria es id_usuario y la variable opcional es contraseña. Sustituya las variables por sus propios valores.

    >>-user--id_usuario--+----------+---------------------------------><
                      '-contraseña-'
     
     
    

    Palabras clave necesarias: las palabras clave y variables necesarias aparecen en la línea de ruta principal.

    >>-palabra_clave_necesaria--------------------------------------------><
     
     
    

    Debe incluir el código de las palabras clave y los valores necesarios.

    Seleccione un elemento necesario de la pila: si hay más de una palabra clave o variable mutuamente exclusivas entre las que elegir, se apilarán verticalmente por orden alfanumérico.

    >>-+-parámetro_necesario_1-+------------------------------------><
       '-parámetro_necesario_2-'
     
     
    

    Valores opcionales: las palabras clave y variables opcionales aparecen debajo de la línea de ruta principal.

    >>-+---------+-------------------------------------------------><
       '-palabra_clave-'
     
     
    

    Puede determinar no incluir en el código palabras clave y variables opcionales.

    Seleccione una palabra clave opcional de una pila: si hay más de una palabra clave o variable opcional mutuamente exclusivas entre las que elegir, se apilarán verticalmente por orden alfanumérico debajo de la línea de ruta principal.

    >>-+-------------+---------------------------------------------><
       +-parámetro_1-+
       '-parámetro_2-'
     
     
    

    Variables: una palabra toda en cursiva es una variable . Donde aparece una variable en la sintaxis, debe sustituirla por uno de sus nombres o valores permitidos, como se define en el texto.

    >>-variable----------------------------------------------------><
     
     
    

    Caracteres no alfanuméricos: si un diagrama muestra un carácter que no es alfanumérico (como dos puntos, comillas o signos menos), debe codificar el carácter como parte de la sintaxis. En este ejemplo, debe codificar clúster:puerto.

    >>-clúster:puerto------------------------------------------------><
     
     
    

    Referencia de mandatos para Dispatcher y CBR

    En este capítulo se describe cómo utilizar los mandatos dscontrol de Dispatcher. También es una referencia de mandatos de CBR.

    En las versiones anteriores, cuando el producto se denominaba Network Dispatcher, el nombre del mandato de control de Dispatcher era ndcontrol. El nombre del mandato de control de Dispatcher ahora es dscontrol. Asegúrese de actualizar todos los archivos de script anteriores de modo que utilicen dscontrol (no ndcontrol) para configurar Dispatcher.

    CBR utiliza un subconjunto de los mandatos de Dispatcher que se enumeran en esta referencia de mandatos. Al utilizar estos diagramas de sintaxis para CBR, sustituya cbrcontrol por dscontrol. Para obtener más información, consulte el apartado Diferencias de configuración entre CBR y Dispatcher.

    La lista siguiente contiene los mandatos que se describen en este capítulo:

    Puede escribir una versión minimizada de los parámetros del mandato dscontrol. Sólo es necesario especificar las letras exclusivas de los parámetros. Por ejemplo, para obtener ayuda sobre el mandato para guardar archivos, puede escribir dscontrol he f en lugar de dscontrol help file.

    Para iniciar la interfaz de línea de mandatos: emita dscontrol para recibir un indicador de mandatos dscontrol.

    Para finalizar la interfaz de línea de mandatos, emita exit o quit.

    Los valores de los parámetros de mandatos deben especificarse en caracteres del idioma inglés. Las únicas excepciones son los nombres de host (que se utilizan en los mandatos cluster, server y highavailability) y nombres de archivo (que se utilizan en los mandatos de archivo).


    Diferencias de configuración entre CBR y Dispatcher

    La interfaz de línea de mandatos de CBR es un subconjunto de la interfaz de línea de mandatos de Dispatcher. Para CBR, indique el mandato cbrcontrol en lugar de dscontrol para configurar el componente.

    Nota:
    El componente CBR (Content Based Routing) está disponible en todas las plataformas admitidas excepto donde se ejecuta una JVM de 64 bits. De modo alternativo, puede utilizar el método de reenvío cbr del componente Dispatcher de Load Balancer para proporcionar el direccionamiento basado en contenido sin utilizar Caching Proxy. Consulte el apartado Direccionamiento basado en contenido de Dispatcher (método de reenvío cbr) para obtener más información.

    A continuación se listan algunos de los mandatos que se omiten en CBR.

    1. alta disponibilidad
    2. subagent
    3. executor
    4. cluster
    5. port
    6. rule add {c:p:r} type port
    7. server

    dscontrol advisor -- controlar el asesor

    >>-dscontrol--advisor--+-connecttimeout--nombre--+-puerto---------+--tiempo_espera_segundos-+-><
                           |                       '-clúster:puerto-'                 |
                           +-interval--nombre--+-puerto---------+--segundos--------------+
                           |                       '-clúster:puerto-'                 |
                           +-list---------------------------------------------------+
                           +-loglevel--nombre--+-puerto---------+--nivel----------------+
                           |                       '-clúster:puerto-'                 |
                           +-logsize--nombre--+-puerto---------+--+-unlimited---------+-+
                           |                '-clúster:puerto-'  '-número de registros-' |
                           +-receivetimeout--nombre--+-puerto---------+--tiempo_espera_segundos-+
                           |                       '-clúster:puerto-'                 |
                           +-report--nombre--+-puerto---------+-------------------------+
                           |                       '-clúster:puerto-'                 |
                           +-retries--nombre--+-puerto---------+--num_reintentos------------+
                           |                       '-clúster:puerto-'                 |
                           +-start--nombre--+-puerto---------+--+----------+------------+
                           |              '-clúster:puerto-'  '-archivo_registro-'            |
                           +-status--nombre--+-puerto---------+-------------------------+
                           |                       '-clúster:puerto-'                 |
                           +-stop--nombre--+-puerto---------+---------------------------+
                           |                       '-clúster:puerto-'                 |
                           +-timeout--nombre--+-puerto---------+--+-unlimited-+---------+
                           |                '-clúster:puerto-'  '-segundos---'         |
                           '-version--nombre--+-puerto---------+------------------------'
                                            '-clúster:puerto-'
     
     
    

    connecttimeout
    Establece cuánto tiempo espera un asesor antes de notificar que se ha producido un error en una conexión a un servidor para un puerto concreto en un servidor (un servicio). Para obtener más información, consulte el apartado Tiempo de espera de conexión y recepción del asesor para los servidores.
    nombre
    Nombre del asesor. Los valores posibles incluyen connect , db2, dns, ftp, http, https, cachingproxy, imap, ldap, nntp, ping, pop3 , self, sip, smtp, ssl, ssl2http, telnet y wlm.

    Consulte el apartado Lista de asesores para obtener información sobre los asesores que proporciona Load Balancer.

    Los nombres de asesores personalizados están en formato xxxx, donde ADV_xxxx es el nombre de la clase que implementa el asesor personalizado. Consulte el apartado Crear asesores personalizados (personalizables) para obtener más información.

    puerto
    Número del puerto que el asesor está supervisando.
    clúster:puerto
    El valor de clúster es opcional en los mandatos del asesor, pero el valor de puerto sí es necesario. Si no se especifica el valor de clúster, el asesor empezará a ejecutarse en el puerto correspondiente a todos los clústeres. Si especifica un clúster, el asesor empezará a ejecutarse en el puerto, pero sólo para el clúster especificado. Consulte el apartado Inicio y detención de un asesor para obtener más información.

    El clúster es la dirección en formato de dirección IP o un nombre simbólico. El puerto es el número del puerto que el asesor está supervisando.

    tiempo_espera_segundos
    Entero positivo que representa el tiempo de espera en segundos durante el que el asesor espera antes de notificar que se ha producido una anomalía en una conexión a un servidor. El valor predeterminado es 3 veces el valor especificado para el intervalo del asesor.
    interval
    Establece con qué frecuencia el asesor consultará si hay información en los servidores.
    segundos
    Entero positivo que representa el número de segundos entre las peticiones a los servidores sobre su estado actual. El valor predeterminado es 7.
    list
    Muestra una lista de los asesores que actualmente proporcionan información al gestor.
    loglevel
    Establece el nivel de registro cronológico para las anotaciones cronológicas del asesor.
    nivel
    El número del nivel (0 a 5). El valor predeterminado es 1. Cuanto más alto sea el número, más información se anotará en las anotaciones cronológicas del asesor. A continuación se muestran los valores posibles: 0 equivale a Ninguno, 1 a Mínimo, 2 a Básico, 3 a Moderado, 4 a Avanzado, 5 a Detallado.
    logsize
    Establece el tamaño máximo de las anotaciones cronológicas del asesor. Cuando se establece un tamaño máximo para el archivo de anotaciones cronológicas, el texto del archivo vuelve al principio; es decir, cuando el archivo alcanza el tamaño especificado, las entradas subsiguientes se anotarán al principio del archivo y se grabarán encima de las entradas de anotaciones cronológicas anteriores. El tamaño de las anotaciones cronológicas no puede establecerse más pequeño que el tamaño actual de las anotaciones cronológicas. Las entradas de las anotaciones cronológicas incluyen la indicación de la hora para poder saber el orden en el que se anotaron. Cuando más alto se establezca el nivel de anotaciones cronológicas, más cuidado deberá tener al elegir el tamaño de las anotaciones cronológicas porque, cuando el registro cronológico está establecido en los niveles más altos, puede quedarse sin espacio rápidamente.
    número_de_registros
    El tamaño máximo en bytes para el archivo de anotaciones cronológicas del asesor. Puede especificar un número positivo mayor que cero o la palabra unlimited. Es posible que el archivo de anotaciones cronológicas no alcance el tamaño máximo exacto antes de empezar a sobrescribir porque el tamaño de las entradas del archivo varían. El valor predeterminado es 1 MB.
    receivetimeout
    Establece cuánto tiempo espera un asesor antes de notificar que se ha producido un error en una recepción en un puerto concreto o un servidor (un servicio). Para obtener más información, consulte el apartado Tiempo de espera de conexión y recepción del asesor para los servidores.
    tiempo_espera_segundos
    Entero positivo que representa el tiempo de espera en segundos durante el que el asesor espera antes de notificar que se ha producido una anomalía en una recepción en un servidor. El valor predeterminado es 3 veces el valor especificado para el intervalo del asesor.
    report
    Muestra un informe sobre el estado del asesor.
    retry
    El parámetro retry establece el número de reintentos que un asesor puede realizar antes de marcar un servidor como inactivo.
    num_reintentos
    Número entero mayor que o igual a cero. Este valor no debe ser mayor que 3. Si la palabra clave retries no está configurada, el número de reintentos tendrá el valor predeterminado de cero.
    start
    Inicia el asesor. Estos son asesores de cada protocolo. Los puertos predeterminados son los siguientes:
    Nombre del asesor Protocolo Puerto
    cachingproxy HTTP (mediante Caching Proxy) 80
    connect ICMP 12345
    db2 private 50000
    dns DNS 53
    ftp FTP 21
    http HTTP 80
    https SSL 443
    imap IMAP 143
    ldap LDAP 389
    nntp NNTP 119
    ping PING 0
    pop3 POP3 110
    self private 12345
    sip SIP 5060
    smtp SMTP 25
    ssl SSL 443
    ssl2http SSL 443
    telnet Telnet 23
    WLM private 10.007
    Nota:
    El asesor FTP sólo debe asesorar sobre el puerto de control FTP (21). No iniciar un asesor FTP en el puerto de datos FTP (20).
    archivo_anotaciones
    Nombre de archivo en el que se anotan los datos de gestión. Cada registro de las anotaciones cronológicas incluye la indicación de la hora.

    El archivo predeterminado es puerto_nombre_asesor.log, por ejemplo, http_80.log. Para cambiar el directorio en el que se guardan los archivos de anotaciones cronológicas, consulte el apartado Cambio de las vías de acceso del archivo de anotaciones cronológicas. Los archivos de anotaciones cronológicas predeterminados para los asesores específicos del clúster (o sitio) se crean con la dirección del clúster, por ejemplo, http_127.40.50.1_80.log.

    status
    Muestra el estado actual de todos los valores de un asesor que se pueden establecer globalmente y sus valores predeterminados.
    stop
    Detiene el asesor.
    timeout
    Establece el número de segundos durante los que el gestor considerará válida la información del asesor. Si el gestor cree que la información del asesor es anterior a este intervalo de tiempo de espera, el gestor no la utilizará para determinar los pesos para los servidores en el puerto que el asesor está supervisando. Una excepción a este tiempo de espera es cuando el asesor ha notificado al gestor que un servidor específico está inactivo. El gestor utilizará dicha información sobre el servidor incluso después de que el servidor exceda el tiempo de espera.
    segundos
    Número positivo que representa el número de segundos o la palabra unlimited. El valor predeterminado es unlimited.
    version
    Muestra la versión actual del asesor.

    Ejemplos

    dscontrol binlog -- controlar el archivo de anotaciones cronológicas binario


    >>-dscontrol--binlog--+-start----------------------+-----------><
                          +-stop-----------------------+
                          +-set--+-retention--horas--+-+
                          |      '-interval--segundos-' |
                          '-status---------------------'
     
     
    

    start
    Inicia las anotaciones cronológicas en binario.
    stop
    Detiene las anotaciones cronológicas en binario.
    set
    Establece campos para el registro cronológico en binario. Si desea más información sobre cómo establecer los campos para el registro cronológico en binario, consulte el apartado Utilización del registro cronológico binario para analizar estadísticas de servidor.
    retención
    Número de horas que se conservan los archivos de anotaciones cronológicas en binario. El valor predeterminado de retention es 24.
    horas
    Número de horas.
    interval
    Número de segundos entre las entradas de anotaciones cronológicas. El valor predeterminado de interval es 60.
    segundos
    Número de segundos.
    status
    Muestra la retención y los intervalos de las anotaciones cronológicas en binario.

    dscontrol cluster -- configurar clústeres


    >>-dscontrol--cluster--+-add--clúster+c2+...--+----------------------------------------+-+-><
                           |                      +-address--dirección-----------------------+ |
                           |                      +-proportions--activo--nuevo--puerto--sistema-+ |
                           |                      +-maxports--tamaño-------------------------+ |
                           |                      +-maxservers--tamaño-----------------------+ |
                           |                      +-stickytime--tiempo-----------------------+ |
                           |                      +-weightbound--peso--------------------+ |
                           |                      +-porttype--tipo-------------------------+ |
                           |                      +-primaryhost--dirección-------------------+ |
                           |                      +-staletimeout--tiempo_espera_inactividad-----------+ |
                           |                      '-sharedbandwidth--tamaño------------------' |
                           +-set--clúster+c2+...--+-proportions--activo--nuevo--puerto--sistema-+-+
                           |                      +-maxports--tamaño-------------------------+ |
                           |                      +-maxservers--tamaño-----------------------+ |
                           |                      +-stickytime--tiempo-----------------------+ |
                           |                      +-weightbound--peso--------------------+ |
                           |                      +-porttype--tipo-------------------------+ |
                           |                      +-primaryhost--dirección-------------------+ |
                           |                      +-staletimeout--tiempo_espera_inactividad-----------+ |
                           |                      '-sharedbandwidth--tamaño------------------' |
                           +-remove--clúster-------------------------------------------------+
                           +-report--clúster-------------------------------------------------+
                           '-status--clúster-------------------------------------------------'
     
     
    

    add
    Añade este clúster. Debe definir como mínimo un clúster.
    clúster
    Nombre o dirección del clúster con el que conectan los clientes. El valor del clúster es un nombre simbólico o está en un formato de dirección IP. Se puede utilizar un valor de clúster de 0.0.0.0 para especificar un clúster comodín. Consulte el apartado Utilizar un clúster comodín para combinar configuraciones de servidores para obtener más información.

    Con la excepción del mandato dscontrol cluster add, puede utilizar dos puntos (:) como carácter comodín. Por ejemplo, al emitir el siguiente mandato, dscontrol cluster set : weightbound 80, se establecerá una ponderación de 80 en todos los clústeres.

    Nota:
    Los clústeres adicionales se separan mediante un signo más (+).
    address
    La dirección IP exclusiva de la máquina TCP en formato de nombre de host o en formato de dirección IP. Si el valor del clúster no puede resolverse, debe proporcionar esta dirección IP de la máquina física.
    Nota:
    address sólo se aplica al componente Dispatcher.
    dirección
    Valor de la dirección del clúster.
    proportions
    A nivel de clúster, establezca la proporción de importancia para las conexiones activas (activas), las nuevas conexiones (nuevas), la información de todos los asesores (puerto) y la información de un programa de supervisión del sistema como Metric Server (sistema) que utilizará el gestor para establecer los pesos del servidor. Cada uno de estos valores, que se describen a continuación, se expresan como porcentaje del total y, por lo tanto, siempre suman 100. Para obtener más información, consulte el apartado Proporción de la importancia otorgada a la información de estado.
    activo
    Número de 0-100 a 100 que representa la proporción del peso que se dará a las conexiones activas. El valor predeterminado es 50.
    nuevo
    Número de 0-100 a 100 que representa la proporción del peso que se dará a las conexiones nuevas. El valor predeterminado es 50.
    puerto
    Número de 0-100 a 100 que representa la proporción del peso que se dará a la información de asesores. El valor predeterminado es 0.
    Nota:
    Al iniciar un asesor y la proporción del puerto es 0, Load Balancer establece automáticamente este valor en 1 para que el gestor utilice la información del asesor como entrada para calcular el peso del servidor.
    sistema
    Número de 0-100 a 100 que representa la proporción del peso que se dará a la información de la métrica del sistema, como la de Metric Server. El valor predeterminado es 0.
    maxports
    Número máximo de puertos. El valor predeterminado de maxports es 8.
    tamaño
    Número de puertos permitido.
    maxservers
    Número máximo predeterminado de servidores por puertos. Este valor puede alterarse para puertos individuales mediante port maxservers. El valor predeterminado de maxservers es 32.
    tamaño
    Número de servidores permitido en un puerto.
    stickytime
    El tiempo de permanencia en memoria predeterminado para los puertos que se van a crear. Este valor puede alterarse para puertos individuales mediante port stickytime. El valor predeterminado de stickytime es 0.
    Nota:
    En el caso del método de reenvío CBR de Dispatcher, si establece el tiempo de permanencia en memoria en un valor distinto de cero, el tiempo de permanencia en memoria del puerto está habilitado si el puerto es SSL (no HTTP). Si el tiempo de permanencia en memoria para los puertos que van a crearse es un valor distinto de cero y el nuevo puerto añadido es SSL, la afinidad de ID de SSL esta habilitada para el puerto. Para inhabilitar la afinidad de ID SSL en el puerto, será necesario establecer de forma explícita el tiempo de permanencia en memoria en 0.
    tiempo
    El valor del tiempo de permanencia en memoria en segundos.
    weightbound
    Ponderación de puerto predeterminada. Este valor puede alterarse para puertos individuales mediante port weightbound. El valor predeterminado de weightbound es 20.
    peso
    El valor de weightbound.
    porttype
    El tipo de puerto predeterminado. Este valor puede alterarse para puertos individuales mediante port porttype.
    tipo
    Los valores posibles son tcp, udp y both.
    primaryhost
    Dirección NFA de esta máquina Dispatcher o la dirección NFA de la máquina Dispatcher de reserva. Para una configuración de alta disponibilidad mutua, un clúster se asocia con la máquina primaria o de reserva.

    Si cambia el valor de primaryhost de un clúster una vez que se han iniciado las máquinas primaria y de reserva y están ejecutando alta disponibilidad mutua, también debe forzar al nuevo host primario que tome control. Asimismo, es necesario actualizar los scripts y desconfigurar y configurar manualmente el clúster correctamente. Consulte el apartado Alta disponibilidad mutua para obtener más información.

    dirección
    Valor de dirección de primaryhost. El valor predeterminado es la dirección NFA de esta máquina.
    staletimeout
    Número de segundos durante los que se puede estar sin actividad en una conexión antes de que ésta se elimine. El valor predeterminado para FTP es 900; el valor predeterminado para Telnet es 32.000.000. El valor predeterminado para todos los demás protocolos es 300. Este valor puede alterarse para puertos individuales mediante port staletimeout. Consulte el apartado Utilización del valor de tiempo de espera sin actividad para obtener más información.
    tiempo_espera_inactividad
    El valor del tiempo sin actividad.
    sharedbandwidth
    La cantidad máxima de ancho de banda (en kilobytes por segundo) que puede compartirse en el nivel del clúster. Para obtener más información sobre el ancho de banda compartido, consulte los apartados Utilización de reglas basadas en ancho de banda reservado y ancho de banda compartido y Regla de ancho de banda compartido.
    Nota:
    sharedbandwith se aplica al componente Dispatcher.
    tamaño
    El tamaño de sharedbandwidth es un valor entero. El valor predeterminado es cero. Si el valor es cero, la anchura de banda no puede compartirse a nivel de clúster.
    set
    Establece las propiedades del clúster.
    remove
    Elimina este clúster.
    report
    Muestra los campos internos del clúster.
    Nota:
    report se aplica al componente Dispatcher.
    status
    Muestra el estado actual de un clúster específico.

    Ejemplos

    dscontrol executor -- controlar el ejecutor


    >>-dscontrol--executor--+-report-----------------------------------------------------------+-><
                            +-set--+-nfa--dirección IP------------+------------------------------+
                            |      +-maxclusters--tamaño----------+                              |
                            |      +-maxports--tamaño-------------+                              |
                            |      +-fintimeout--tiempo_espera_fin+                              |
                            |      +-hatimeout--tiempo------------+                              |
                            |      +-hasynctimeout--tiempo--------+                              |
                            |      +-maxservers--tamaño-----------+                              |
                            |      +-mss--tamaño------------------+                              |
                            |      +-staletimeout--tiempo_espera_inact+                          |
                            |      +-stickytime--tiempo-----------+                              |
                            |      +-clientgateway--dirección-----+                              |
                            |      +-weightbound--peso------------+                              |
                            |      +-porttype--tipo---------------+                              |
                            |      +-wideportnumber--puerto-------+                              |
                            |      '-sharedbandwidth--tamaño------+                              |
                            +-configure--dirección_interfaz+i2+...+----------------------------+-+
                            |                                            +-nombre_interfaz--máscara_red|
                            +-unconfigure--dirección_interfaz------------------------------------+
                            +-start-------------------------------------------------------------+
                            +-status------------------------------------------------------------+
                            '-stop--------------------------------------------------------------'
     
     
    

    report
    Muestra un informe de instantánea de estadísticas. Por ejemplo: total de paquetes recibidos, paquetes descartados, paquetes reenviados con errores, etc.
    Nota:
    report se aplica al componente Dispatcher.
    set
    Establece los campos del ejecutor.
    nfa
    Establecer la dirección de no reenvío. La máquina Dispatcher no enviará ninguno de los paquetes reenviados a esta dirección.
    Nota:
    NFA se aplica al componente Dispatcher.
    dirección IP
    La dirección Internet Protocol como nombre simbólico o en formato decimal separado por puntos.
    maxclusters
    Número máximo de clústeres que pueden configurarse. El valor predeterminado de maxclusters es 100.
    tamaño
    Número máximo de clústeres que pueden configurarse.
    maxports
    El valor predeterminado de maxports para clústeres que puede crearse. Puede alterarse mediante el mandato cluster set o cluster add. El valor predeterminado de maxports es 8.
    tamaño
    El tamaño de puertos.
    tpo.conex.fin
    El número de segundos que debe mantenerse una conexión en memoria después de poner la conexión en el estado FIN. El valor predeterminado de fintimeout es 30.
    tiempo_espera_fin
    El valor de tiempo de espera para estado FIN.
    Nota:
    fintimeout se aplica al componente Dispatcher.
    hatimeout
    Número de segundos que el ejecutor utiliza para indicar el tiempo de espera de los pulsos de alta disponibilidad. El valor predeterminado es 2.
    Nota:
    hatimeoute se aplica al componente Dispatcher.
    tiempo
    El valor de tiempo de espera para alta disponibilidad.
    hasynctimeout
    Número de segundos que el ejecutor utiliza para indicar el tiempo de espera de la duplicación de registros de conexión entre las máquinas primaria y de reserva. El valor predeterminado es 50.

    El temporizador se utiliza para asegurarse de que las máquinas primaria y de reserva intentan sincronizarse. Sin embargo, si existen demasiadas conexiones y la máquina activa sigue gestionando una carga significativa del tráfico entrante, es posible que la sincronización no se haya completado antes de que caduque el temporizador. Como consecuencia, Load Balancer intentará volver a sincronizarse constantemente y las dos máquinas nunca se sincronizan. Si se da esta situación, establezca hasynctimeout en un valor más alto que el valor predeterminado para dar a las dos máquinas suficiente tiempo para intercambiar información sobre las conexiones existentes. Para establecer este temporizador, el mandato hasynctimeout se debe emitir después del mandato dscontrol executor start pero antes de emitir los mandatos de alta disponibilidad (dscontrol highavailability).

    Nota:
    El valor hasynctimeout se aplica al componente Dispatcher.
    tiempo
    El valor de tiempo de espera de sincronización para alta disponibilidad.
    maxservers
    Número máximo predeterminado de servidores por puerto. Puede alterarse mediante el mandato cluster o port. El valor predeterminado de maxservers es 32.
    mss
    Número máximo de bytes del segmento de datos de la conexión TCP/UDP. La suma del número de bytes del segmento de datos y la cabecera debe ser menor que el número de bytes de la MTU (unidad máxima de transmisión). El valor predeterminado de mss es 1460.
    Nota:
    El tamaño máximo del segmento sólo se aplica al método de reenvío nat o cbr del componente Dispatcher.
    tamaño
    Número de servidores.
    staletimeout
    Número de segundos durante los que se puede estar sin actividad en una conexión antes de que ésta se elimine. El valor predeterminado para FTP es 900; el valor predeterminado para Telnet es 32.000.000. El valor predeterminado para todos los demás puertos 300. Puede alterarse mediante el mandato cluster o port. Consulte el apartado Utilización del valor de tiempo de espera sin actividad para obtener más información.
    tiempo_espera_inactividad
    El valor del tiempo sin actividad.
    stickytime
    El valor de tiempo de permanencia en memoria del puerto predeterminado para todos los clústeres futuros. Puede alterarse mediante el mandato cluster o port. El valor predeterminado de stickytime es 0.
    tiempo
    El valor del tiempo de permanencia en memoria en segundos.
    clientgateway
    Clientgateway es una dirección IP que se utiliza para NAT/NAPT/ o el direccionamiento basado en contenido (CBR) de Dispatcher. Es la dirección del direccionador a través del que se reenvía el tráfico en la dirección de retorno desde Load Balancer a los clientes. Clientgateway debe establecerse en un valor distinto de cero antes de añadir un puerto con el método de reenvío NAT/NAPT o el direccionamiento basado en contenido (CBR) de Dispatcher. Consulte los apartados NAT/NAPT de Dispatcher (método de reenvío nat) y Direccionamiento basado en contenido de Dispatcher (método de reenvío cbr) para obtener más información.
    Nota:
    clientgateway sólo se aplica al componente Dispatcher.
    dirección
    La dirección de clientgateway como nombre simbólico o en formato decimal separado por puntos. El valor predeterminado es 0.0.0.0.
    weightbound
    El valor de ponderación del puerto determinado para todos los puertos futuros. Puede alterarse mediante el mandato cluster o port. El valor predeterminado de weightbound es 20.
    peso
    El valor de ponderación.
    porttype
    El valor de tipo de puerto del puerto predeterminado para todos los puertos futuros. Puede alterarse mediante el mandato cluster o port.
    Nota:
    porttype se aplica al componente Dispatcher.
    tipo
    Los valores posibles son tcp, udp y both.
    wideportnumber
    Puerto TCP no utilizado en cada máquina Dispatcher. El valor de wideportnumber debe ser el mismo para todas las máquinas de Dispatcher. El valor predeterminado de wideportnumber es 0, lo que indica que no se está utilizando el soporte de área amplia.
    Nota:
    wideportnumber se aplica al componente Dispatcher.
    puerto
    El valor de wideportnumber.
    sharedbandwidth
    La cantidad máxima de ancho de banda (en kilobytes por segundo) que puede compartirse en el nivel del ejecutor. Para obtener más información sobre el ancho de banda compartido, consulte los apartados Utilización de reglas basadas en ancho de banda reservado y ancho de banda compartido y Regla de ancho de banda compartido.
    Nota:
    sharedbandwith se aplica al componente Dispatcher.
    tamaño
    El tamaño de sharedbandwidth es un valor entero. El valor predeterminado es cero. Si el valor es cero, la anchura de banda no puede compartirse a nivel de ejecutor.
    configure
    Configura una dirección (por ejemplo, una dirección de clúster, dirección de retorno o una dirección de pulso de alta disponibilidad) para la tarjeta de interfaz de red de la máquina Dispatcher. También se conoce como configuración de un alias en la máquina Dispatcher.
    Nota:
    configure se aplica al componente Dispatcher.
    dirección_interfaz
    La dirección es un nombre simbólico o aparecer en formato de dirección IP.
    Nota:
    Las direcciones de interfaces adicionales se separan mediante un signo más (+).
    nombre_interfaz máscara_red
    Esta opción sólo es necesaria si la dirección no coincide con ninguna subred de las direcciones existentes. nombre_interfaz puede ser un valor como: en0, eth1, eri0. La máscara_red es la máscara de 32 bits utilizada para identificar los bits de la dirección de subred en la parte que muestra el host en una dirección IP.
    unconfigure
    Suprime la dirección de alias de la tarjeta de interfaz de red.
    Nota:
    unconfigure se aplica al componente Dispatcher.
    start
    Inicia el ejecutor.
    status
    Muestra el estado actual de los valores en el ejecutar que puede establecerse y sus valores predeterminados.
    stop
    Detiene el ejecutor.
    Nota:
    stop se aplica a Dispatcher y a CBR.

    Ejemplos

    dscontrol file -- gestionar archivos de configuración


    >>-dscontrol--file--+-delete--archivo[.ext]----------+------------><
                        +-appendload--archivo[.ext]------+
                        +-report-------------------------+
                        +-save--archivo[.ext]--+-------+-+
                        |                   '-force-' |
                        '-newload--archivo[.ext]---------'
     
     
    

    delete
    Suprime el archivo.
    archivo[.ext]
    Archivo de configuración que consta de mandatos dscontrol.

    La extensión de archivo (.ext) puede ser cualquiera y puede omitirse.

    appendload
    Para actualizar la configuración actual, el mandato appendload ejecuta los mandatos ejecutables para el archivo de script.
    report
    Informa sobre el archivo o archivos disponibles.
    save
    Guardar la configuración actual de Load Balancer en el archivo.
    Nota:
    Los archivos se guardan y se cargan de los siguientes directorios, donde componente es Dispatcher o CBR:
    • En sistemas Linux y UNIX: /opt/ibm/edge/lb/servers/configurations/componente
    • En plataforma Windows: C:\Archivos de programa\ibm\edge\lb\servers\configurations\componente
    force
    Para guardar el archivo en un archivo existente con el mismo nombre, utilice force para suprimir el archivo existente antes de guardar el nuevo archivo. Si no utiliza la opción force, no se sobrescribirá el archivo existente.
    newload
    Carga y ejecuta un nuevo archivo de configuración en Load Balancer. El nuevo archivo de configuración sustituye a la configuración actual.

    Ejemplos

    dscontrol help -- mostrar o imprimir ayuda para este mandato


    >>-dscontrol--help--+-advisor----------+-----------------------><
                        +-binlog-----------+
                        +-cluster----------+
                        +-executor---------+
                        +-file-------------+
                        +-help-------------+
                        +-highavailability-+
                        +-host-------------+
                        +-logstatus--------+
                        +-manager----------+
                        +-metric-----------+
                        +-port-------------+
                        +-rule-------------+
                        +-server-----------+
                        +-set--------------+
                        +-status-----------+
                        '-subagent---------'
     
     
    

    Ejemplos

    dscontrol highavailability -- controlar alta disponibilidad


    Nota:
    El diagrama de sintaxis de alta disponibilidad de dscontrol sólo se aplica al componente Dispatcher.
    >>-dscontrol--highavailability--+-status--------------------------------------+-><
                                    +-backup--+-add--+-primary-+--+-auto---+--p-+-+
                                    |         |      +-backup--+  '-manual-'    | |
                                    |         |      '-both----'                | |
                                    |         '-delete--------------------------' |
                                    +-reach--+-add----+--dirección--máscara------------+
                                    |        '-delete-'                           |
                                    +-heartbeat--+-add--dirección_org--dirección_dst-+--+
                                    |            '-delete--dirección-------------'  |
                                    '-takeover--+---------+-----------------------'
                                                '-dirección-'
     
     
    

    status
    Devuelve un informe de alta disponibilidad. Las máquinas se identifican con una de tres condiciones o estados:

    Active
    Una máquina determinada (una máquina primaria, de reserva o ambas) está direccionando los paquetes.

    Standby
    Una máquina determinada (una máquina primaria, de reserva o ambas) no está direccionando paquetes; está supervisando el estado de una máquina Dispatcher activa.

    Idle
    Una máquina determinada está direccionando paquetes y no intenta establecer contacto con su sistema Dispatcher asociado.

    Además, la palabra clave status devuelve información sobre diversos subestados:

    Synchronized
    Una máquina determinada ha establecido contacto con otro sistema Dispatcher.

    Other substates
    Esta máquina intenta establecer contacto con su sistema Dispatcher asociado, pero todavía no ha dado resultado.
    backup
    Especifique la información para la máquina primaria o de reserva.
    add
    Define y ejecuta las funciones de alta disponibilidad para esta máquina.
    primary
    Identifica la máquina Dispatcher que tiene un rol primario.
    backup
    Identifica la máquina Dispatcher que tiene un rol de reserva.
    both
    Identifica la máquina Dispatcher que tiene ambos roles, primario y de reserva. Se trata de una característica de alta disponibilidad mutua en donde los roles primario y de reserva están asociados para cada conjunto de clústeres. Consulte el apartado Alta disponibilidad mutua para obtener más información.
    auto
    Especifica una estrategia de recuperación automática, en la que la máquina primaria reanudará el direccionamiento de paquetes tan pronto como vuelva a estar en funcionamiento.
    manual
    Especifica la estrategia de recuperación manual, en la que la máquina primaria no reanuda el direccionamiento de paquetes hasta que el administrador emite un mandato takeover.
    p[uerto]
    Puerto TCP sin utilizar en ambas máquinas que utilizará Dispatcher para sus mensajes de pulso. El puerto debe ser el mismo para las máquinas primaria y de reserva.
    delete
    Saca esta máquina de la configuración de alta disponibilidad, por lo que ya no se podrá utilizar como máquina primaria o de reserva.
    reach
    Añade o suprime la dirección de destino para los sistemas Dispatcher primario y de reserva, el asesor de alcance emite mandatos ping a los sistemas Dispatcher primario y de reserva para determinar la accesibilidad de sus destinos.
    Nota:
    Al configurar el destino de alcance, también debe iniciar el asesor de alcance. El asesor de alcance lo inicia automáticamente la función de gestor.
    add
    Añade una dirección de destino para el asesor de alcance.
    delete
    Elimina una dirección de destino del asesor de alcance.
    dirección
    Dirección IP (en formato de dirección IP o nombre simbólico) del nodo de destino.
    máscara
    Una máscara de subred.
    heartbeat
    Define una sesión de comunicación entre las máquinas Dispatcher primaria y de reserva.
    add
    Informa al sistema Dispatcher de origen de la dirección de su socio (dirección de destino).
    dirección_org
    Dirección de origen. La dirección (IP o simbólica) de esta máquina Dispatcher.
    dirección_dst
    Dirección de destino. La dirección (IP o simbólica) de la otra máquina Dispatcher.
    Nota:
    La dirección_orig y la dirección_dest deben ser las NFA de las máquinas para como mínimo un par de pulsos.
    delete
    Elimina el par de dirección de la información de pulso. Puede especificar la dirección de destino o de origen del par de pulso.
    dirección
    La dirección (IP o simbólica) del destino o del origen.
    takeover
    Configuración de alta disponibilidad simple (el rol de las máquinas Dispatcher puede ser primario, primary o de reserva, backup):

    Configuración de alta disponibilidad mutua (el rol de cada máquina Dispatcher es ambos, both):

    Notas:

    1. Tenga en cuenta que los roles de las máquinas (primary, backup, both) no cambian. Sólo cambian su status relativo (active o standby).

    2. existen tres posibles scripts de takeover: goActive, goStandby y goInOp. Consulte el apartado Utilización de scripts.
    dirección
    El valor de la dirección de takeover es opcional. Sólo debe utilizarse cuando el rol de la máquina es both, es decir primario y de reserva (configuración de alta disponibilidad mutua). La dirección especificada es la NFA de la máquina Dispatcher que normalmente direcciona el tráfico de este clúster. Cuando se produce un proceso de toma de control en ambos clústeres, especifique la propia dirección NFA del sistema Dispatcher.

    Ejemplos

    dscontrol host -- configurar una máquina remota


    >>-dscontrol--host:--sistppal_remoto-------------------------------><
     
     
    

    sistppal_remoto
    Nombre de la máquina remota de Load Balancer que se está configurando. Cuando escriba este mandato, asegúrese de que no hay ningún espacio entre host: y sistppal_remoto, por ejemplo:
    dscontrol host:sist_princ_remoto
    

    Después de emitir el mandato en el indicador de mandatos, escriba cualquier mandato dscontrol válido que desee emitir en la máquina Load Balancer remota.

    dscontrol logstatus -- mostrar valores de anotaciones cronológicas de servidor


    >>-dscontrol--logstatus----------------------------------------><
     
     
    

    logstatus
    Muestra los valores de las anotaciones cronológicas del servidor (nombre de archivo de anotaciones cronológicas, nivel de registro cronológico y tamaño de las anotaciones cronológicas).

    Ejemplos

    Mostrar el estado de las anotaciones cronológicas:

    dscontrol logstatus
    

    Este mandato genera una salida parecida a la siguiente:

    Estado de anotaciones de Dispatcher
    ------------------------------
    Archivo de anotaciones ..... C:\ARCHIV~1\IBM\edge\lb\servers\logs\dispatcher
    \server.log
    Nivel anotación cronológica. 1
    Tam. máx. archivo anotac. .. 1048576
    

    dscontrol manager -- controlar el gestor

    >>-dscontrol--manager--+-interval--segundos----------------------+-><
                           +-loglevel--nivel------------------------+
                           +-logsize--+-unlimited-+-----------------+
                           |          '-bytes-----'                 |
                           +-metric set--+-loglevel--nivel--------+-+
                           |             '-logsize--+-unlimited-+-' |
                           |                        '-bytes-----'   |
                           +-quiesce--servidor--+-----+---------------+
                           |                  '-now-'               |
                           +-reach set--+-interval--segundos------+--+
                           |            +-loglevel--nivel--------+  |
                           |            '-logsize--+-unlimited-+-'  |
                           |                       '-bytes-----'    |
                           +-refresh--renovar ciclo-----------------+
                           +-report--+----------------+-------------+
                           |         '-clúster+c2+...-'             |
                           +-restart--mensaje-----------------------+
                           +-sensitivity--peso----------------------+
                           +-smoothing--índice de suavizado---------+
                           +-start--+-----------------------+-------+
                           |        '-archivo_anotaciones--puerto_métrica-'       |
                           +-status---------------------------------+
                           +-stop-----------------------------------+
                           +-unquiesce--servidor--------------------+
                           '-version--------------------------------'
     
     
    

    interval
    Establece la frecuencia con que el gestor actualizará los pesos de los servidores para el ejecutor, actualizando los criterios que el ejecutor utiliza para direccionar peticiones de clientes.
    segundos
    Número positivo que representa la frecuencia en segundos con la que el gestor actualizará los pesos para el ejecutor. El valor predeterminado es 2.
    loglevel
    Establece el nivel de registro cronológico para las anotaciones cronológicas del gestor.
    nivel
    El número del nivel (0 a 5). Cuanto más alto sea el número, más información se anotará en las anotaciones cronológicas del gestor. El valor predeterminado es 1. A continuación se muestran los valores posibles: 0 equivale a Ninguno, 1 a Mínimo, 2 a Básico, 3 a Moderado, 4 a Avanzado, 5 a Detallado.
    logsize
    Establece el tamaño máximo de las anotaciones cronológicas del gestor. Cuando se establece un tamaño máximo para el archivo de anotaciones cronológicas, el texto del archivo vuelve al principio; es decir, cuando el archivo alcanza el tamaño especificado, las entradas subsiguientes se anotarán al principio del archivo y se grabarán encima de las entradas de anotaciones cronológicas anteriores. El tamaño de las anotaciones cronológicas no puede establecerse más pequeño que el tamaño actual de las anotaciones cronológicas. Las entradas de las anotaciones cronológicas incluyen la indicación de la hora para poder saber el orden en el que se anotaron. Cuando más alto se establezca el nivel de anotaciones cronológicas, más cuidado deberá tener al elegir el tamaño de las anotaciones cronológicas porque, cuando el registro cronológico está establecido en los niveles más altos, puede quedarse sin espacio rápidamente.
    bytes
    El tamaño máximo en bytes para el archivo de anotaciones cronológicas de gestor. Puede especificar un número positivo mayor que cero o la palabra unlimited. Es posible que el archivo de anotaciones cronológicas no alcance el tamaño máximo exacto antes de empezar a sobrescribir porque el tamaño de las entradas del archivo varían. El valor predeterminado es 1 MB.
    metric set
    Establece loglevel y logsize para las anotaciones cronológicas del supervisor de métrica. loglevel es el nivel de registro cronológico del supervisor de métrica (0 - Ninguno,1 - Mínimo,2 - Básico,3 - Moderado, 4 - Avanzado o 5 - Detallado). El valor predeterminado de loglevel es 1. El logsize es el número máximo de bytes que deben anotarse en el archivo de anotaciones cronológicas del supervisor de métrica. Puede especificar un número positivo mayor que cero o unlimited. El valor predeterminado es 1 MB.
    quiesce
    No especifique más conexiones para enviar a un servidor, a excepción de las nuevas conexiones subsiguientes del cliente al servidor desactivado temporalmente, si la conexión se designa como de permanencia en memoria y el tiempo de permanencia en memoria no ha caducado. El gestor establece el peso para dicho servidor en 0 en cada puerto para el que está definido. Utilice este mandato si desea realizar un mantenimiento rápido en un servidor y, a continuación, desactivarlo temporalmente. Si suprime un servidor desactivado temporalmente de la configuración y después lo vuelve a añadir, no retendrá el estado que tenía antes de desactivarse temporalmente. Para obtener más información, consulte el apartado Desactivar temporalmente el manejo de conexiones de servidor.
    servidor
    Dirección IP del servidor en forma de nombre simbólico o en formato decimal separado por puntos.

    O, si ha utilizado la partición del servidor, utilice el nombre exclusivo del servidor lógico. Consulte el apartado Creación de particiones del servidor: servidores lógicos configurados con un servidor físico (dirección IP) para obtener más información.

    now
    Utilice la opción quiesce "now" sólo si ha fijado el tiempo de permanencia en memoria y desea que las nuevas conexiones se envíen a otro servidor (distinto del servidor desactivado temporalmente) antes de que caduque el tiempo de permanencia en memoria. Para obtener más información, consulte el apartado Desactivar temporalmente el manejo de conexiones de servidor.
    reach set
    Establece el intervalo, el nivel de anotaciones cronológicas y el tamaño de las anotaciones cronológicas para el asesor de alcance.
    refresh
    Establece el número de intervalos antes de solicitar al ejecutor que renueve la información sobre conexiones nuevas y activas.
    ciclo de renovación
    Número positivo que representa el número de intervalos. El valor predeterminado es 2.
    report
    Muestra un informe de instantánea de estadísticas.
    clúster
    La dirección del clúster que desea que se muestre en el informe. La dirección puede ser un nombre simbólico o aparecer en formato de dirección IP. El valor predeterminado es una pantalla de informe de gestor para todos los clústeres.
    Nota:
    Los clústeres adicionales se separan mediante un signo más (+).
    restart
    Reinicia todos los servidores (que no están inactivos) para pesos normalizados (1/2 del peso máximo).
    mensaje
    Mensaje que desea escribir en el archivo de anotaciones cronológicas del gestor.
    sensitivity
    Establece la sensibilidad mínima en la que se actualizan los pesos. Este valor define cuando el gestor debe cambiar su ponderación para el servidor basándose en información externa.
    peso
    Número comprendido entre 1 y 100 que debe utilizarse como porcentaje de peso. El valor predeterminado 5 crea una sensibilidad mínima del 5%.
    smoothing
    Establece un índice que suavice las variaciones en el peso al realizar el equilibrio de carga. Un índice de suavizado más alto hará que los pesos de servidores cambien menos radicalmente cuando cambian las condiciones de la red. Un índice más bajo hará que los pesos de servidores cambien de forma más radical.
    índice
    Número de coma flotante positivo. El valor predeterminado es 1,5.
    start
    Inicia el gestor.
    archivo_anotaciones
    Nombre de archivo en el que se anotan los datos del gestor. Cada registro del archivo de anotaciones cronológicas tiene la indicación de la hora.

    El archivo predeterminado se instala en el directorio logs. Consulte el Apéndice C. Archivos de configuración de ejemplo. Para cambiar el directorio en el que se guardan los archivos de anotaciones cronológicas, consulte el apartado Cambio de las vías de acceso del archivo de anotaciones cronológicas.

    puerto_métrica
    Puerto que Metric Server utilizará para notificar cargas del sistema. Si especifica un puerto de métrica, debe especificar un nombre de archivo de anotaciones cronológicas. El puerto de métrica predeterminado es 10004.
    status
    Muestra el estado actual de todos los valores del gestor que pueden establecerse globalmente y sus valores predeterminados.
    stop
    Detiene el gestor.
    unquiesce
    Especifica que el gestor puede empezar a otorgar un peso superior a 0 a un servidor que anteriormente se había desactivado temporalmente, en cada puerto en el que está definido.
    servidor
    Dirección IP del servidor en forma de nombre simbólico o en formato decimal separado por puntos.
    version
    Muestra la versión actual del gestor.

    Ejemplos

    dscontrol metric -- configurar métrica del sistema

    >>-dscontrol--metric--+-add--clúster+c2+...+cN:métrica+métrica1+...+métricaN--------------+-><
                          +-remove--clúster+c2+...+cN:métrica+métrica1+...+métricaN-----------+
                          +-proportions--clúster+c2+...+cN proporción1 prop2 prop3...propN-+
                          '-status--clúster+c2+...+cN:métrica+métrica1+...+métricaN-----------'
     
     
    

    add
    Añadir la métrica específica.
    clúster
    Dirección a la que se conectan los clientes. La dirección puede ser el nombre de host de la máquina o el formato de notación de dirección IP. Los clústeres adicionales se separan mediante un signo más (+).
    métrica
    El nombre del sistema métrico. Debe ser el nombre de un archivo script o ejecutable en el directorio de scripts de Metric Server.
    remove
    Elimina la métrica especificada.
    proportions
    Establece las proporciones para toda la métrica asociada a este objeto.
    status
    Muestra los valores actuales de esta métrica.

    Ejemplos

    dscontrol port -- configurar puertos

    >>-dscontrol--port--+-add--clúster:puerto--+----------------------+-+-><
                        |                    +-crossport--otro_puerto-+ |
                        |                    +-maxservers--tamaño-----+ |
                        |                    +-stickymask--valor------+ |
                        |                    +-stickytime--tiempo-----+ |
                        |                    +-method--tipo-----------+ |
                        |                    +-staletimeout--valor----+ |
                        |                    +-weightbound--peso------+ |
                        |                    +-porttype--tipo---------+ |
                        |                    +-protocol--tipo---------+ |
                        |                    '-reset--valor-----------' |
                        +-set--clúster:puerto--+-crossport--otro_puerto-+-+
                        |                    +-maxservers--tamaño-----+ |
                        |                    +-stickymask--valor------+ |
                        |                    +-stickytime--tiempo-----+ |
                        |                    +-staletimeout--valor----+ |
                        |                    +-weightbound--peso------+ |
                        |                    +-porttype--tipo---------+ |
                        |                    +-maxhalfopen--valor-----+ |
                        |                    '-reset--valor-----------' |
                        +-remove--clúster:puerto------------------------+
                        +-report--clúster:puerto------------------------+
                        +-status--clúster:puerto------------------------+
                        '-halfopenaddressreport--clúster:puerto---------'
     
     
    

    add
    Añade un puerto a un clúster. Debe añadir un puerto a un clúster para poder añadir servidores a dicho puerto. Si no hay puertos para un clúster, todas las peticiones de cliente se procesan localmente. Con este mandato puede añadir más de un puerto a la vez.
    clúster
    La dirección del clúster, en forma de nombre simbólico o en un formato de dirección IP. Puede utilizar dos puntos (:) como carácter comodín. Por ejemplo, al emitir el mandato dscontrol port add :80 se añadirá el puerto 80 a todos los clústeres.
    Nota:
    Los clústeres adicionales se separan mediante un signo más (+).
    puerto
    El número del puerto. El valor de número de puerto 0 (cero) puede utilizarse para especificar un puerto comodín.
    Nota:
    Los puertos adicionales se separan mediante un signo más (+).
    crossport
    Crossport permite expandir la característica de permanencia en memoria/afinidad por varios puertos para que las peticiones de cliente recibidas en distintos puertos se puedan seguir enviando al mismo servidor para las peticiones subsiguientes. En el valor crossport, especifique el número otro_puerto para el que desea compartir la característica de afinidad entre puertos. Para utilizar esta característica, los puertos deben:

    Para eliminar la característica crossport, establezca el valor de crossport de nuevo en el número de su propio puerto. Para obtener más información sobre la característica de afinidad entre puertos, consulte el apartado Afinidad entre puertos.

    Nota:
    crossport sólo se aplica a los métodos de reenvío NAT/NATP y MAC del componente Dispatcher.
    otro_puerto
    El valor de crossport. El valor predeterminado es el número de su propio puerto.
    maxservers
    Número máximo de servidores. El valor predeterminado de maxservers es 32.
    tamaño
    El valor de maxservers.
    stickymask
    La característica máscara de dirección de afinidad agrupa las peticiones de cliente entrantes en base a direcciones de subred comunes. La primera vez que una petición de cliente establece una conexión con el puerto, todas las peticiones subsiguientes procedentes de clientes con la misma dirección de subred (representada por la parte de la dirección IP que está enmascarada) se dirigen al mismo servidor. Para poder habilitar stickymask, port stickytime debe tener un valor distinto de cero. Consulte el apartado Máscara de dirección de afinidad (stickymask) para obtener más información.
    Nota:
    La palabra clave stickymask sólo se aplica al componente Dispatcher.
    valor
    El valor stickymask es el número de bits de orden superior de la dirección IP de 32 bits que desea ocultar. Los valores posibles son: 8, 16, 24 y 32. El valor predeterminado es 32, que inhabilita la característica de máscara de dirección de afinidad.
    stickytime
    El período de permanencia en memoria es el intervalo entre el cierre de una conexión y la apertura de una conexión nueva, durante el cual un cliente se volverá a enviar al mismo servidor utilizado durante la primera conexión. Una vez transcurrido el tiempo de permanencia en memoria, puede enviarse el cliente a un servidor distinto del primero.

    para el componente Dispatcher:

    Para el componente CBR: si establece port stickytime en un valor distinto de cero, el tipo de afinidad en la regla debe ser none (valor predeterminado). La afinidad basada en reglas (cookie pasivo, URI, cookie activo) no puede coexistir cuando stickytime se establece en el puerto.

    tiempo
    El tiempo de permanencia en memoria en número de segundos. Cero significa que el puerto no es de permanencia en memoria.
    method
    Método de reenvío. Los métodos de reenvío posibles son: reenvío MAC, reenvío NAT o reenvío CBR (Content Based Routing). No debería añadir un método de reenvío NAT o CBR, a menos que primero especifique una dirección IP distinta de cero en el parámetro clientgateway del mandato dscontrol executor. Consulte los apartados NAT/NAPT de Dispatcher (método de reenvío nat) y Direccionamiento basado en contenido de Dispatcher (método de reenvío cbr) para obtener más información.

    Notas:

    1. method sólo se aplica al componente Dispatcher.

    2. Si un servidor de programa de fondo está en la misma subred que la dirección de retorno, y está utilizando el método de reenvío CBR o el método de reenvío NAT, debe definir la dirección del direccionador de modo que sea la dirección del servidor de programa de fondo.

    3. Si añade un método de reenvío MAC, es necesario que especifique el parámetro "protocol" como HTTP o SSL.
    tipo
    Tipo del método de reenvío. Los valores posibles son: mac, nat o cbr. El valor predeterminado es el reenvío MAC.
    staletimeout
    Número de segundos durante los que se puede estar sin actividad en una conexión antes de que ésta se elimine. Para el componente Dispatcher, el valor predeterminado es 900 para el puerto 21 (FTP) y 32.000.000 para el puerto 23 (Telnet). Para los demás puertos Dispatcher y todos los puertos CBR, el valor predeterminado es 300. Staletimeout también puede establecerse en el nivel del ejecutor o del clúster. Consulte el apartado Utilización del valor de tiempo de espera sin actividad para obtener más información.
    valor
    El valor de staletimeout en número de segundos.
    weightbound
    Establece el peso máximo de servidores para este puerto. Esto afecta a la diferencia permitida entre el número de peticiones que el ejecutor puede otorgar a cada servidor. El valor predeterminado es 20.
    peso
    Un número entre 1-100 que representa el enlace de peso máximo.
    porttype
    El tipo de puerto.
    Nota:
    porttype sólo se aplica a Dispatcher.
    tipo
    Los valores posibles son tcp, udp y both. El valor predeterminado es (tcp/udp).
    protocol
    El tipo de protocolo. Para el componente Dispatcher, es un parámetro necesario cuando se especifica un método "cbr" en el puerto. Si selecciona un protocolo de puerto, escriba SSL, también debe especificar un tiempo permanencia en memoria no cero para habilitar la afinidad de ID SSL. Si selecciona el protocolo HTTP , puede establecer la afinidad de servidor mediante las reglas "content". Consulte el apartado Direccionamiento basado en contenido de Dispatcher (método de reenvío cbr) para obtener más información.
    Nota:
    protocol sólo se aplica al método de reenvío CBR de Dispatcher.
    tipo
    Los valores posibles son HTTP o SSL.
    maxhalfopen
    Umbral para el número máximo de conexiones medio abiertas. Utilice este parámetro para detectar posibles ataques para rechazo de servicio (DoS) que resultan en un gran número de conexiones TCP medio abiertas en servidores.

    Un valor positivo indica que se realiza una comprobación para determinar si las conexiones medio abiertas actuales exceden el umbral. Si el valor actual excede el umbral, se realiza una llamada a un script de alerta. Consulte el apartado Detección de ataques para rechazo de servicio (DoS) para obtener más información.

    Nota:
    maxhalfopen sólo se aplica a Dispatcher.
    valor
    El valor de maxhalfopen. El valor predeterminado es cero (no se realizará ninguna comprobación).
    reset
    Reset permite especificar si Load Balancer enviará restauraciones TCP a servidores inactivos en el puerto. Una restauración TCP hace que la conexión se cierre inmediatamente. Consulte el apartado Envío de una restauración TCP a un servidor inactivo (sólo componente Dispatcher) para obtener más información.
    Nota:
    reset sólo se aplica al componente Dispatcher. Para poder utilizar la palabra clave reset se debe establecer la opción clientgateway del mandato dscontrol executor en una dirección de direccionador.
    valor
    Los valores posibles para una restauración son yes y no. El valor predeterminado es no (no se llevan a cabo restauraciones TCP en servidores inactivos). Cuando reset tiene el valor yes, las restauraciones TCP se envían a servidores inactivos.
    set
    Establece los campos de un puerto.
    remove
    Suprime este puerto.
    report
    Informa sobre este puerto.
    status
    Muestra el estado de servidores en este puerto. Si desea ver el estado en todos los puertos, no especifique un puerto con este mandato. Recuerde indicar los dos puntos.
    numSegundos
    La cantidad de tiempo en segundos que debe transcurrir antes de restaurar conexiones medio abiertas.
    halfopenaddressreport
    Genera entradas en las anotaciones cronológicas (halfOpen.log) para todas las direcciones de cliente (hasta aproximadamente 8000 pares de direcciones) que han accedido a servidores que tienen conexiones medio abiertas. Además, los datos estadísticos se envían a la línea de mandatos, como por ejemplo: el número total, el número más grande y el promedio de conexiones medio abiertas, así como el tiempo medio en las conexiones medio abiertas (en segundos). Consulte el apartado Detección de ataques para rechazo de servicio (DoS) para obtener más información.

    Ejemplos

    dscontrol rule -- configurar reglas

    >>-dscontrol--rule--+-add--clúster:puerto:regla--type--tipo--| opts |-+-><
                        +-dropserver--clúster:puerto:regla--servidor--------+
                        +-remove--clúster:puerto:regla--------------------+
                        +-report--clúster:puerto:regla--------------------+
                        +-set--clúster:puerto:regla--| opts |-------------+
                        +-status--clúster:puerto:regla--------------------+
                        '-useserver--clúster:puerto:regla--servidor+s2+...--'
     
    opts:
     
    |--+---------------------------------+--------------------------|
       +-beginrange--bajo--endrange--alto-+
       +-priority--nivel-----------------+
       +-pattern--patrón----------------+
       +-tos--valor----------------------+
       +-stickytime--tiempo----------------+
       +-affinity--tipo_afinidad---------+
       +-cookiename--valor---------------+
       +-evaluate--nivel-----------------+
       '-sharelevel--nivel---------------'
     
     
    

    add
    Añade esta regla a un puerto.
    clúster
    La dirección del clúster, en forma de nombre simbólico o en un formato de dirección IP. Puede utilizar dos puntos (:) como carácter comodín. Por instancia, el siguiente mandato, dscontrol rule add :80:ReglaA type tipo, añadirá ReglaA al puerto 80 para todos los clústeres.
    Nota:
    Los clústeres adicionales se separan mediante un signo más (+).
    puerto
    El número del puerto. Puede utilizar dos puntos (:) como carácter comodín. Por instancia, el siguiente mandato, dscontrol rule add clusterA::ReglaA type tipo, añadirá ReglaA a todos los puertos para ClústerA.
    Nota:
    Los puertos adicionales se separan mediante un signo más (+).
    regla
    Nombre que se selecciona para la regla. Este nombre puede contener cualquier carácter alfanumérico, subrayado, guión o punto. Puede tener de 1 a 20 caracteres y no puede contener blancos.
    Nota:
    Las reglas adicionales se separan mediante un signo más (+).
    type
    Tipo de regla.
    tipo
    Las opciones de tipo son:

    ip
    La regla se basa en la dirección IP de cliente.

    tiempo
    La regla se basa en la hora del día.

    connection
    La regla se basa en el número de conexiones por segundo para el puerto. Esta regla sólo se aplicará si el gestor está en ejecución.

    activas
    La regla se basa en el número total de conexiones activas para el puerto. Esta regla sólo se aplicará si el gestor está en ejecución.

    port
    La regla se basa en el puerto de cliente.
    Nota:
    port se aplica al componente Dispatcher.

    service
    Esta regla se basa en el campo de byte de tipo de servicio (TOS) en la cabecera IP.
    Nota:
    service sólo se aplica al componente Dispatcher.

    reservedbandwidth
    Esta regla se basa en el ancho de banda (kilobytes por segundo) que proporciona un conjunto de servidores. Para obtener más información, consulte los apartados Utilización de reglas basadas en ancho de banda reservado y ancho de banda compartido y Regla de ancho de banda reservado.
    Nota:
    reservedbandwidth sólo se aplica al componente Dispatcher.

    sharedbandwidth
    Esta regla se basa en la cantidad de ancho de banda (kilobytes por segundo) que se comparte en el nivel del ejecutor o del clúster. Para obtener más información, consulte los apartados Utilización de reglas basadas en ancho de banda reservado y ancho de banda compartido y Regla de ancho de banda compartido.
    Nota:
    sharedbandwidth sólo se aplica al componente Dispatcher.

    true
    La regla es siempre cierta. Piense en ella como si fuera una sentencia else en lógica de programación.

    content
    Esta regla describe una expresión regular que se comparará con los URL solicitados por el cliente. Es válida para Dispatcher y CBR.
    beginrange
    El valor más pequeño del rango utilizado para determinar si una regla es cierta.
    bajo
    Depende del tipo de regla. El tipo de valor y su valor predeterminado se listan según el tipo de regla:

    ip
    La dirección del cliente, en forma de nombre simbólico o en un formato de dirección IP. El valor predeterminado es 0.0.0.0.

    tiempo
    Número entero. El valor predeterminado es 0, que representa medianoche.

    connection
    Número entero. El valor predeterminado es 0.

    activas
    Número entero. El valor predeterminado es 0.

    port
    Número entero. El valor predeterminado es 0.

    reservedbandwidth
    Número entero (kilobytes por segundo). El valor predeterminado es 0.
    endrange
    El valor más alto del rango utilizado para determinar si la regla es cierta.
    alto
    Depende del tipo de regla. El tipo de valor y su valor predeterminado se listan según el tipo de regla:

    ip
    La dirección del cliente, en forma de nombre simbólico o en un formato de dirección IP. El valor predeterminado es 255.255.255.254.

    tiempo
    Número entero. El valor predeterminado es 24, que representa medianoche.
    Nota:
    Al definir beginrange y endrange de los intervalos de tiempo, tenga en cuenta que cada valor debe ser un entero que represente sólo la porción de la hora del tiempo; no se especifican las fracciones de una hora. Por esta razón, para especificar una sola hora, por ejemplo la hora entre las 3:00 y las 4:00, debería especificar 3 en beginrange y también 3 en endrange. Esto indicará todos los minutos, empezando en 3:00 y terminando en 3:59. Si especifica 3 en beginrange y 4 en endrange, abarcará un periodo de dos horas, de las 3:00 hasta las 4:59.

    connections
    Número entero. El valor predeterminado es 2 elevado a la 32 menos 1.

    activas
    Número entero. El valor predeterminado es 2 elevado a la 32 menos 1.

    port
    Número entero. El valor predeterminado es 65535.

    reservedbandwidth
    Número entero (kilobytes por segundo). El valor predeterminado es 2 elevado a la 32 menos 1.
    priority
    El orden en el que se revisan las reglas.
    nivel
    Número entero. Si no especifica la prioridad de la primera regla que añade, de manera predeterminada Dispatcher la establecerá en 1. Cuando posteriormente se añade otra regla, de manera predeterminada su prioridad se calcula sumando 10 a la prioridad más baja actual de cualquier regla existente. Por ejemplo, suponga que tiene una regla existente con una prioridad 30. Añada una nueva regla con la prioridad 25 (recuerde que esta prioridad es más alta que 30). A continuación, añada una tercera regla sin establecer la prioridad. La prioridad de la tercera regla se calculará como 40 (30 + 10).
    patrón
    Especifica el patrón que se debe utilizar para una regla de tipo contenido.
    patrón
    El patrón que se utilizará. Si desea más información sobre valores válidos, consulte el Apéndice B. Sintaxis de la regla de contenido (patrón).
    tos
    Especifica el valor de "tipo de servicio" (TOS) utilizado para la regla de tipo servicio type rule.
    Nota:
    TOS sólo se aplica al componente Dispatcher.
    valor
    Serie de ocho caracteres que va a utilizarse para el valor TOS, donde los caracteres válidos son: 0 (cero binario), 1 (uno binario) y x (no importa). Por ejemplo: 0xx1010x. Para obtener más información, consulte el apartado Utilización de reglas basadas en el tipo de servicio (TOS)
    stickytime
    Especifica el tiempo de permanencia en memoria que debe utilizarse para una regla. Si se establece el parámetro affinity en "activecookie" en el mandato rule, stickytime debe establecerse en un valor distinto de cero para habilitar este tipo de afinidad. La opción stickytime de la regla no se aplica a los tipos de reglas de afinidad "passivecookie" ni "uri".

    Consulte el apartado Afinidad de cookies activos para obtener más información.

    Nota:
    rule stickytime sólo se aplica al componente CBR.
    tiempo
    Intervalo en segundos.
    affinity
    Especifica el tipo de afinidad que debe utilizarse para una regla: cookie activo, cookie pasivo, URI o ninguno.

    El tipo de afinidad "activecookie" habilita el equilibrio de carga del tráfico Web con afinidad para el mismo servidor basándose en los cookies generados por Load Balancer.

    El tipo de afinidad "passivecookie" habilita el equilibrio de carga del tráfico Web con afinidad para el mismo servidor basándose en los cookies que se identifican a sí mismos generados por los servidores. Debe utilizar el parámetro cookiename junto con la afinidad de cookie pasivo.

    El tipo de afinidad "URI" habilita el equilibrio de carga en el tráfico Web para los servidores Caching Proxy de forma que aumente de manera eficaz el tamaño de la memoria caché.

    Consulte los apartados Afinidad de cookies activos, Afinidad de cookies pasivos y Afinidad de URI para obtener más información.

    Nota:
    affinity se aplica a reglas configuradas con el método de reenvío CBR del componente Dispatcher.
    tipo_afinidad
    Los valores posibles para el tipo de afinidad son: none (valor predeterminado), activecookie, passivecookie o uri.
    cookiename
    Nombre arbitrario establecido por el administrador que actúa como identificador para Load Balancer. Es el nombre que Load Balancer debe buscar en la petición de cabecera HTTP del cliente. El nombre de cookie, junto con el valor de cookie, actúa como identificador para Load Balancer y permite que envíe peticiones subsiguientes a un sitio Web a la misma máquina servidor. El nombre de cookie sólo se puede aplicar con la afinidad "cookie pasivo".

    Consulte el apartado Afinidad de cookies pasivos para obtener más información.

    Nota:
    cookiename se aplica a las reglas configuradas con el método de reenvío CBR del componente Dispatcher y al componente CBR.
    valor
    El valor del nombre de cookie.
    evaluate
    Esta opción sólo está disponible en el componente Dispatcher. Especifica si se debe evaluar la condición de la regla en todos los servidores incluidos en el puerto o en todos los servidores incluidos en la regla. Esta opción sólo es válida para las reglas que toman sus decisiones en función de las características de los servidores, como por ejemplo: las reglas connection, active y reservedbandwidth. Para obtener más información, consulte el apartado Opción de evaluación del servidor para reglas.

    En la regla de tipo conexión, también puede especificar una opción de evaluación: upserversonrule. Si especifica upserversonrule, puede asegurarse de que no se cargará en exceso los servidores restantes incluidos en la regla, si algunos de los servidores incluidos en el conjunto están inactivos.

    nivel
    Los valores posibles son port, rule o upserversonrule. El valor predeterminado es port. upserversonrule sólo está disponible para la regla de tipo conexión.
    sharelevel
    Este parámetro sólo se aplica a la regla de ancho de banda compartido. Especifica si debe compartirse el ancho de banda en el nivel del clúster o en el nivel de ejecutor. Si se comparte el ancho de banda en el nivel de clúster se permite que un puerto (o varios puertos) compartan una cantidad máxima de ancho de banca por varios puertos dentro del mismo clúster. Si se comparte el ancho de banda a nivel del ejecutor se permite que un clúster (o varios clústeres) incluidos en la configuración completa de Dispatcher compartan una cantidad máxima de ancho de banda. Para obtener más información, consulte el apartado Regla de ancho de banda compartido.
    nivel
    Los valores posibles son executor o cluster.
    dropserver
    Elimina un servidor del conjunto de reglas.
    servidor
    Dirección IP de la máquina servidor TCP como nombre simbólico o en formato de dirección IP.

    O, si ha utilizado la partición del servidor, utilice el nombre exclusivo del servidor lógico. Consulte el apartado Creación de particiones del servidor: servidores lógicos configurados con un servidor físico (dirección IP) para obtener más información.

    Nota:
    Los servidores adicionales se separan mediante un signo más (+).
    remove
    Elimina una o más reglas, separadas entre sí por signos más.
    report
    Muestra los valores internos de una o más reglas.
    set
    Establece los valores para esta regla.
    status
    Muestra los valores de una o más reglas que pueden establecerse.
    useserver
    Inserta servidores en un conjunto de reglas.

    Ejemplos

    dscontrol server -- configurar servidores

    >>-dscontrol--server--+-add--clúster:puerto:servidor--+-------------------------+-+-><
                          |                           +-address--dirección--------+ |
                          |                           +-collocated--valor-------+ |
                          |                           +-sticky--valor-----------+ |
                          |                           +-weight--valor-----------+ |
                          |                           +-fixedweight--valor------+ |
                          |                           +-cookievalue--valor------+ |
                          |                           +-mapport--val_puert------+ |
                          |                           +-protocol--valor---------+ |
                          |                           +-router--dirc------------+ |
                          |                           +-returnaddress--dirc-----+ |
                          |                           +-advisorrequest--serie---+ |
                          |                           '-advisorresponse--serie--' |
                          +-set--clúster:puerto:servidor--+-collocated--valor-------+-+
                          |                           +-sticky--valor-----------+ |
                          |                           +-weight--valor-----------+ |
                          |                           +-fixedweight--valor------+ |
                          |                           +-cookievalue--valor------+ |
                          |                           +-protocol--valor---------+ |
                          |                           +-router--dirc------------+ |
                          |                           +-advisorrequest--serie---+ |
                          |                           '-advisorresponse--serie--' |
                          +-down--clúster:puerto:servidor-----------------------------+
                          +-remove--clúster:puerto:servidor---------------------------+
                          +-report--clúster:puerto:servidor---------------------------+
                          +-up--clúster:puerto:servidor-------------------------------+
                          '-status--clúster:puerto:servidor---------------------------'
     
     
    

    add
    Añade este servidor.
    clúster
    La dirección del clúster, en forma de nombre simbólico o en un formato de dirección IP. Puede utilizar dos puntos (:) como carácter comodín. Por ejemplo, al emitir el siguiente mandato, dscontrol server add :80:ServidorA, se añadirá ServidorA al puerto 80 en todos los clústeres.
    Nota:
    Los clústeres adicionales se separan mediante un signo más (+).
    puerto
    El número del puerto. Puede utilizar dos puntos (:) como carácter comodín. Por ejemplo, el siguiente mandato, dscontrol server add ::ServidorA, añadirá ServidorA a todos los servidores de todos los puertos.
    Nota:
    Los puertos adicionales se separan mediante un signo más (+).
    servidor
    El servidor es la dirección IP exclusiva de la máquina servidor TCP como nombre simbólico o en formato de dirección IP.

    O, si utiliza un nombre exclusivo que no se resuelva en una dirección IP, debe proporcionar el parámetro address del servidor en el mandato dscontrol server add. Consulte el apartado Creación de particiones del servidor: servidores lógicos configurados con un servidor físico (dirección IP) para obtener más información.

    Nota:
    Los servidores adicionales se separan mediante un signo más (+).
    dirección
    La dirección IP exclusiva de la máquina servidor TCP en formato de nombre de host o en formato de dirección IP. Si el servidor no puede resolverse, debe proporcionar la dirección de la máquina servidor física. Consulte el apartado Creación de particiones del servidor: servidores lógicos configurados con un servidor físico (dirección IP) para obtener más información.
    dirección
    Valor de la dirección del servidor.
    collocated
    La ubicación compartida permite especificar si Dispatcher está instalado en una de las máquinas de servidor sobre las que realiza el equilibrio de carga.
    Nota:
    El parámetro collocated es válido cuando se utilizan los métodos de reenvío MAC, NAT o CBR de Dispatcher. Site Selector y CBR pueden compartir ubicación en todas las plataformas, pero no requieren esta palabra clave. Para obtener más información, consulte el apartado Utilización de servidores con ubicación compartida.
    valor
    Valor de collocated: yes o no. El valor predeterminado es no.
    sticky
    Permite a un servidor alterar el valor de permanencia en memoria en este puerto. Con el valor predeterminado "yes", el servidor retiene la afinidad normal, como se ha definido en el puerto. Con el valor "no," el cliente no volverá a dicho servidor la próxima vez que emita una petición en dicho puerto, independientemente del valor de tiempo de permanencia en memoria de dicho puerto. Es útil en determinadas situaciones cuando se utilizan reglas. Para obtener más información, consulte el apartado Alteración temporal de la afinidad entre puertos.
    valor
    Valor de sticky: yes o no. El valor predeterminado es yes.
    weight
    Número comprendido entre 1 y 100 (aunque sin exceder el valor de ponderación del puerto especificado) que representa el peso de este servidor. Si se establece el peso en cero, se impedirá que se envíen nuevas peticiones al servidor, aunque no se terminarán ninguna de las conexiones actualmente activas con dicho servidor. El valor predeterminado es la mitad del valor máximo de weightbound para el puerto especificado. Si el gestor se está ejecutando, este valor se sobrescribirá.
    valor
    Valor del peso del servidor.
    fixedweight
    La opción fixedweight permite especificar si desea que el gestor modifique el peso del servidor. Si establece el valor de fixedweight en yes, cuando el gestor lo ejecuta no podrá modificar el peso del servidor. Para obtener más información, consulte el apartado Pesos fijos del gestor.
    valor
    Valor de fixedweight: yes o no. El valor predeterminado es no.
    cookievalue
    Cookievalue es un valor arbitrario que representa el servidor en el par de nombre de cookie y valor de cookie. El nombre de cookie, junto con el nombre de cookie, actúa como identificador que permite a Load Balancer enviar peticiones de cliente subsiguientes al mismo servidor. Consulte el apartado Afinidad de cookies pasivos para obtener más información.
    Nota:
    cookievalue es válido para Dispatcher (utilizando el método de reenvío CBR) y CBR.
    valor
    Valor es cualquier valor arbitrario. El valor predeterminado es sin valor de cookie.
    mapport
    Correlaciona el número de puerto de destino de la petición del cliente (que es para Dispatcher) con el número de puerto del servidor que Dispatcher utiliza para equilibrar la carga de la petición del cliente. Permite a Load Balancer recibir una petición del cliente en un puerto y transmitirla a un puerto distinto de la máquina servidor. Con mapport puede realizar el equilibrio de carga de peticiones de un cliente para un servidor que puede tener en ejecución varios daemons de servidor.
    Nota:
    mapport se aplica a Dispatcher (utilizando los métodos de reenvío NAT o CBR) y a CBR. Acerca de Dispatcher, consulte los apartados NAT/NAPT de Dispatcher (método de reenvío nat) y Direccionamiento basado en contenido de Dispatcher (método de reenvío cbr). Acerca de CBR, consulte el apartado Equilibrio de carga de cliente a proxy en SSL y de proxy a servidor en HTTP.
    protocol
    Los valores válidos para el protocolo son HTTP y HTTPS. El valor predeterminado es HTTP.
    Nota:
    El protocolo sólo se aplica al componente CBR.
    val_puert
    Valor del número de puerto de correlación. El valor predeterminado es el número de destino de la petición del cliente.
    router
    Si está configurando una red de área amplia, la dirección del direccionador para el servidor remoto. El valor predeterminado es 0, lo que indica un servidor local. Tenga en cuenta que una vez que la dirección de direccionador de un servidor se establece en un valor distinto de cero (lo que indica un servidor remoto), no puede restablecerse en 0 para que el servidor vuelva a ser local. En su lugar, el servidor debe eliminarse y, a continuación, añadirse de nuevo sin especificar una dirección de router. De forma parecida, un servidor definido como local (dirección de router = 0) no puede convertirse en remoto cambiando la dirección del direccionador. El servidor debe eliminarse y añadirse de nuevo. Consulte el apartado Configurar soporte de Dispatcher de área amplia para obtener más información.
    Nota:
    router sólo se aplica a Dispatcher. Si utiliza los métodos de reenvío CBR o NAT, al añadir un servidor a la configuración deberá especificar la dirección del direccionador.
    dirc
    Valor de la dirección del direccionador.
    returnaddress
    Una dirección IP o nombre de host exclusivo. Es una dirección configurada en la máquina Dispatcher que Dispatcher utiliza como dirección de origen cuando equilibra la carga de la petición del cliente para el servidor. Esto garantiza que el servidor devuelve el paquete a la máquina Dispatcher para procesar el contenido de la petición en lugar de enviar el paquete directamente al cliente. (A continuación, Dispatcher reenviará el paquete IP al cliente). Cuando se añade el servidor, se debe especificar el valor de dirección de retorno. La dirección de retorno no se puede modificar a menos que se elimine el servidor y se añada de nuevo. La dirección de retorno no puede ser la misma que la dirección de clúster, servidor o NFA.
    Nota:
    returnaddress sólo se aplica a Dispatcher. Al utilizar los métodos de reenvío nat o cbr, debe definir una dirección de retorno para la comunicación entre Load Balancer y los servidores de fondo. El número de conexiones que Load Balancer puede mantener activas con el servidor de fondo está limitado por el número de direcciones de retorno que se definen. Load Balancer utiliza puertos que se basan sólo en las direcciones de retorno; no en una combinación de dirección de retorno y servidor. Cuando todos los puertos disponibles están siendo utilizados, las conexiones adicionales fallan. En un entorno ocupado, utilice varias direcciones de retorno para evitar que falten puertos disponibles.
    dirc
    Valor de la dirección de retorno.
    advisorrequest
    El asesor HTTP o HTTPS utiliza la serie de petición de asesor para examinar el estado de los servidores. Sólo es válido para los servidores que reciben asesoramiento del asesor HTTP o HTTPS. Para habilitar este valor debe iniciar el asesor HTTP o HTTPS. Consulte el apartado Configuración del asesor HTTP o HTTPS utilizando la opción de petición y respuesta (URL) para obtener más información.
    Nota:
    advisorrequest se aplica a los componentes Dispatcher y CBR.
    serie
    Valor de la serie utilizada por el asesor HTTP o HTTPS. El valor predeterminado es HEAD / HTTP/1.0.
    Nota:
    Si la serie incluye un espacio en blanco:
    • Al emitir el mandato desde el indicador del shell dscontrol>>, debe especificar las serie entre comillas.Por ejemplo: server set clúster:puerto:servidor advisorrequest "head / http/1.0"
    • Al emitir el mandato dscontrol desde el indicador del sistema operativo, debe preceder el texto con "\" y terminarlo con \"". Por ejemplo: dscontrol server set clúster:puerto:servidor advisorrequest "\"head / http/1.0\""

    advisorresponse
    Serie de respuesta del asesor en la que el asesor HTTP o HTTPS busca la respuesta HTTP. Sólo será válido para los servidores que reciben asesoramiento del asesor HTTP o HTTPS. Para habilitar este valor debe iniciar el asesor HTTP o HTTPS. Consulte el apartado Configuración del asesor HTTP o HTTPS utilizando la opción de petición y respuesta (URL) para obtener más información.
    Nota:
    advisorresponse se aplica a los componentes Dispatcher y CBR.
    serie
    Valor de la serie utilizada por el asesor HTTP o HTTPS. El valor predeterminado es nulo.
    Nota:
    Si la serie incluye un espacio en blanco:
    • Al emitir el mandato desde el indicador del shell dscontrol>>, debe especificar las serie entre comillas.
    • Al emitir el mandato dscontrol desde el indicador del sistema operativo, debe preceder el texto con "\" y terminarlo con \"".
    down
    Marca este servidor como inactivo. Este mandato interrumpe todas las conexiones activas con dicho servidor e impide que se establezcan otras conexiones con dicho servidor ni que se envíen paquetes al mismo.

    Cuando se utiliza un mandato server down para poner un servidor fuera de línea, si el valor de tiempo de permanencia en memoria (stickytime) no es cero para dicho servidor, ese servidor seguirá atendiendo los clientes existentes hasta que caduque el tiempo de permanencia en memoria. El servidor pasará a estar inactivo una vez que caduque el valor de tiempo de permanencia en memoria (stickytime).

    remove
    Elimina este servidor.
    report
    Informa sobre este servidor. El informe contiene la siguiente información de cada servidor: número actual de conexiones por segundo (CPS), kilobytes transferidos en un segundo intervalo (KBPS), el número total de conexiones(Total), número de conexiones que están en estado activo (Active), número de conexiones que están en el estado FIN (FIN) y el número de conexiones completadas (Comp).
    set
    Establece los valores para este servidor.
    status
    Muestra el estado de los servidores.
    up
    Marca este servidor como activo. Dispatcher enviará nuevas conexiones a dicho servidor.

    Ejemplos

    dscontrol set -- configurar anotaciones cronológicas de servidor

    >>-dscontrol--set--+-loglevel--nivel--------+------------------><
                       '-logsize--+-unlimited-+-'
                                  '-tamaño------'
     
     
    

    loglevel
    El nivel en el que el dsserver anota sus actividades.
    nivel
    El valor predeterminado de loglevel es 0. El rango es de 0 a 5. A continuación se muestran los valores posibles: 0 equivale a Ninguno, 1 a Mínimo, 2 a Básico, 3 a Moderado, 4 a Avanzado, 5 a Detallado.
    logsize
    El número máximo de bytes que se deben anotar en el archivo de anotaciones cronológicas.
    tamaño
    El valor predeterminado de logsize es 1 MB.

    dscontrol status -- mostrar si el gestor y los asesores se están ejecutando

    >>-dscontrol--status-------------------------------------------><
     
     
    

    Ejemplos

    dscontrol subagent -- configurar subagente SNMP

    Nota:
    Los diagramas de sintaxis del mandato dscontrol subagent hacen referencia al componente Dispatcher.
    >>-dscontrol--subagent--+-loglevel--nivel--------------------+-><
                            +-logsize--+-bytes-----+-------------+
                            |          '-unlimited-'             |
                            +-report-----------------------------+
                            +-start--+-------------------------+-+
                            |        '-nombre_comunidad--archivo_anotaciones-' |
                            +-status-----------------------------+
                            +-stop-------------------------------+
                            '-version----------------------------'
     
     
    

    loglevel
    Nivel en el que el subagente anota sus actividades en un archivo.
    nivel
    El número del nivel (0 a 5). Cuanto más alto sea el número, más información se anotará en las anotaciones cronológicas del gestor. El valor predeterminado es 1. A continuación se muestran los valores posibles: 0 equivale a Ninguno, 1 a Mínimo, 2 a Básico, 3 a Moderado, 4 a Avanzado, 5 a Detallado.
    logsize
    Establece el tamaño máximo de bytes que se deben anotar en las anotaciones cronológicas del subagente. El valor predeterminado es 1 MB. Cuando se establece un tamaño máximo para el archivo de anotaciones cronológicas, el texto del archivo vuelve al principio; es decir, cuando el archivo alcanza el tamaño especificado, las entradas subsiguientes se anotarán al principio del archivo y se grabarán encima de las entradas de anotaciones cronológicas anteriores. El tamaño de las anotaciones cronológicas no puede establecerse más pequeño que el tamaño actual de las anotaciones cronológicas. Las entradas de anotaciones cronológicas incluyen la indicación de la hora para poder saber el orden en el que se anotaron. Cuando más alto se establezca el nivel de anotaciones cronológicas, más cuidado deberá tener al elegir el tamaño de las anotaciones cronológicas porque, cuando el registro cronológico está establecido en los niveles más altos, puede quedarse sin espacio rápidamente.
    bytes
    El tamaño máximo en bytes para el archivo de anotaciones cronológicas de subagente. Puede especificar un número positivo mayor que cero o la palabra unlimited. Es posible que el archivo de anotaciones cronológicas no alcance el tamaño máximo exacto antes de empezar a sobrescribir porque el tamaño de las entradas del archivo varían. El valor predeterminado es unlimited.
    report
    Muestra un informe de instantánea de estadísticas.
    start
    Inicia el subagente.
    nombre_comunidad
    Nombre del valor SNMP del nombre de comunidad que puede utilizar como contraseña de seguridad. El valor predeterminado es public.

    En la plataforma Windows: se utiliza el nombre de comunidad del sistema operativo.

    archivo_anotaciones
    Nombre de archivo en el que se anotan los datos del subagente SNMP. Cada registro del archivo de anotaciones cronológicas tiene la indicación de la hora. El valor predeterminado es subagent.log. El archivo predeterminado se instala en el directorio logs. Consulte el Apéndice C. Archivos de configuración de ejemplo. Para cambiar el directorio en el que se guardan los archivos de anotaciones cronológicas, consulte el apartado Cambio de las vías de acceso del archivo de anotaciones cronológicas.
    status
    Muestra el estado actual de todos los valores de un subagente SNMP que se pueden establecer globalmente y sus valores predeterminados.
    version
    Muestra la versión actual del subagente.

    Ejemplos


    Referencia de mandatos para Site Selector

    En este capítulo se describe cómo utilizar los siguientes mandatos sscontrol de Site Selector:

    Puede escribir una versión minimizada de los parámetros del mandato sscontrol. Sólo es necesario especificar las letras exclusivas de los parámetros. Por ejemplo, para obtener ayuda sobre el mandato para guardar archivos, puede escribir sscontrol he f en lugar de sscontrol help file.

    Nota:
    Los valores de los parámetros de mandatos deben especificarse en caracteres del idioma inglés. Las únicas excepciones son los nombres de host (que se utilizan en los mandatos del clúster y servidor) y los nombres de archivo (que se utilizan en los mandatos de archivo).

    sscontrol advisor -- controlar el asesor


    >>-sscontrol--advisor--+-connecttimeout--nombre--+-puerto-------+--segundos-----+-><
                           |                       '-nombresitio:puerto-'                |
                           +-interval--nombre--+-puerto----------+--segundos-------------+
                           |                       '-nombresitio:puerto-'                |
                           +-list---------------------------------------------------+
                           +-loglevel--nombre--+-puerto----------+--nivel---------------+
                           |                       '-nombresitio:puerto-'                |
                           +-logsize--nombre--+-puerto----------+--+-size | unlimited-+-+
                           |                '-nombresitio:puerto-'  '-bytes------------' |
                           +-receivetimeout--nombre--+-puerto----------+--segundos-------+
                           |                       '-nombresitio:puerto-'                |
                           +-report--informe--+-puerto----------+------------------------+
                           |                       '-nombresitio:puerto-'                |
                           +-retries--nombre--+-puerto----------+--num_reints-----------+
                           |                       '-nombresitio:puerto-'                |
                           +-start--nombre--+-puerto----------+--+----------+-----------+
                           |              '-nombresitio:puerto-'  '-archivo_anotaciones-'   |
                           +-status--nombre--+-puerto----------+------------------------+
                           |                       '-nombresitio:puerto-'                |
                           +-stop--nombre--+-puerto----------+--------------------------+
                           |                       '-nombresitio:puerto-'                |
                           +-timeout--nombre--+-puerto----------+-----------------------+
                           |                       '-nombresitio:puerto-'                |
                           '-version--nombre--+-puerto----------+--segundos--------------'
                                            '-nombresitio:puerto-'
     
     
    

    connecttimeout
    Establece cuánto tiempo espera un asesor antes de notificar que se ha producido un error en una conexión a un servidor. Para obtener más información, consulte el apartado Tiempo de espera de conexión y recepción del asesor para los servidores.
    nombre
    Nombre del asesor. Los valores posibles incluyen http, https, ftp, sip, ssl, smtp, imap, pop3, ldap, nntp, telnet, connect, ping, WLM y WTE. Los nombres de asesores personalizados están en formato xxxx, donde ADV_xxxx es el nombre de la clase que implementa el asesor personalizado.
    puerto
    Número del puerto que el asesor está supervisando.
    segundos
    Entero positivo que representa el tiempo en segundos durante el que el asesor espera antes de notificar que se ha producido una anomalía en una conexión a un servidor. El valor predeterminado es 3 veces el valor especificado para el intervalo del asesor.
    interval
    Establece con qué frecuencia el asesor consulta si hay información en los servidores.
    segundos
    Entero positivo que representa el número de segundos entre las peticiones a los servidores sobre su estado. El valor predeterminado es 7.
    list
    Muestra una lista de los asesores que actualmente proporcionan información al gestor.
    loglevel
    Establece el nivel de registro cronológico para las anotaciones cronológicas del asesor.
    nivel
    El número del nivel (0 a 5). El valor predeterminado es 1. Cuanto más alto sea el número, más información se anotará en las anotaciones cronológicas del asesor. Los valores posibles son:

    .

    logsize
    Establece el tamaño máximo de las anotaciones cronológicas del asesor. Cuando se establece un tamaño máximo para el archivo de anotaciones cronológicas, el texto del archivo vuelve al principio; es decir, cuando el archivo alcanza el tamaño especificado, las entradas subsiguientes se grabarán encima de las entradas de anotaciones cronológicas anteriores. El tamaño de las anotaciones cronológicas no puede establecerse más pequeño que el tamaño actual de las anotaciones cronológicas. Las entradas de las anotaciones cronológicas incluyen la indicación de la hora para poder saber el orden en el que se anotaron. Cuando más alto se establezca el nivel de anotaciones cronológicas, más cuidado deberá tener al elegir el tamaño de las anotaciones cronológicas porque, cuando el registro cronológico está establecido en los niveles más altos, puede quedarse sin espacio rápidamente.
    tamaño | unlimited
    El tamaño máximo en bytes para el archivo de anotaciones cronológicas del asesor. Puede especificar un número positivo mayor que cero o la palabra unlimited. Es posible que el archivo de anotaciones cronológicas no alcance el tamaño máximo exacto antes de empezar a sobrescribir porque el tamaño de las entradas del archivo varían. El valor predeterminado es 1 MB.
    receivetimeout
    Establece cuánto tiempo espera un asesor antes de notificar que se ha producido un error en una recepción en un servidor. Para obtener más información, consulte el apartado Tiempo de espera de conexión y recepción del asesor para los servidores.
    segundos
    Entero positivo que representa el tiempo en segundos durante el que el asesor espera antes de notificar que se ha producido una anomalía en una recepción en un servidor. El valor predeterminado es 3 veces el valor especificado para el intervalo del asesor.
    report
    Muestra un informe sobre el estado del asesor.
    retries
    El número de reintentos que un asesor puede realizar antes de marcar un servidor como inactivo.
    num_reintentos
    Número entero mayor que o igual a cero. Este valor no debe ser mayor que 3. Si la palabra clave retries no está configurada, el número de reintentos tendrá el valor predeterminado de cero.
    start
    Inicia el asesor. Estos son asesores de cada protocolo. Los puertos predeterminados son:
    Nombre del asesor Protocolo Puerto
    Connect n/d definido por el usuario
    db2 private 50000
    ftp FTP 21
    http HTTP 80
    https SSL 443
    imap IMAP 143
    ldap LDAP 389
    nntp NNTP 119
    PING PING N/D
    pop3 POP3 110
    sip SIP 5060
    smtp SMTP 25
    ssl SSL 443
    telnet Telnet 23
    nombre
    Nombre del asesor.
    nombre_sitio:puerto
    El valor de nombre de sitio es opcional en los mandatos del asesor; sin embargo, el valor de puerto sí es necesario. Si no se especifica el valor de nombre de sitio, el asesor empieza a ejecutarse en todos los nombres de sitio disponibles configurados. Si especifica un nombre de sitio, el asesor sólo empieza a ejecutarse en el nombre del sistema que especifique. Los nombres de sitios adicionales se separan mediante un signo más (+).
    archivo_anotaciones
    Nombre de archivo en el que se anotan los datos de gestión. Cada registro de las anotaciones cronológicas incluye la indicación de la hora.

    El archivo predeterminado es puerto_nombre_asesor.log, por ejemplo, http_80.log. Para cambiar el directorio en el que se almacenan los archivos de anotaciones cronológicas, consulte el apartado Cambio de las vías de acceso del archivo de anotaciones cronológicas.

    Sólo puede iniciar un asesor para cada nombre de sitio.

    status
    Muestra el estado actual y los valores predeterminados de todos los valores globales de un asesor.
    stop
    Detiene el asesor.
    timeout
    Establece el número de segundos durante los que el gestor considerará válida la información del asesor. Si el gestor cree que la información del asesor es anterior a este intervalo de tiempo de espera, el gestor no la utiliza para determinar los pesos para los servidores en el puerto que el asesor está supervisando. Una excepción a este tiempo de espera es cuando el asesor ha notificado al gestor que un servidor específico está inactivo. El gestor utiliza dicha información sobre el servidor, incluso después de que el información del asesor exceda el tiempo de espera.
    segundos
    Número positivo que representa el número de segundos o la palabra unlimited. El valor predeterminado es unlimited.
    version
    Muestra la versión actual del asesor.

    Ejemplos

    sscontrol file -- gestionar archivos de configuración

    >>-sscontrol--file--+-delete--nombre_archivo.ext----------+----------><
                        +-appendload--nombre_archivo.ext------+
                        +-report------------------------+
                        +-save--nombre_archivo.ext--+-------+-+
                        |                     '-force-' |
                        '-newload--nombre_archivo.ext---------'
     
     
    

    delete
    Suprime el archivo.
    archivo.ext
    Un archivo de configuración.

    La extensión de archivo (.ext) puede ser cualquiera y es opcional.

    appendload
    Adjunta un archivo de configuración a la configuración actual y la carga en Site Selector.
    report
    Informa sobre el archivo o archivos disponibles.
    save
    Guarda la configuración actual de Site Selector en el archivo.
    Nota:
    Los archivos se guardan y se cargan de los siguientes directorios:
    • En sistemas Linux y UNIX: /opt/ibm/edge/lb/servers/configurations/ss
    • En sistemas Windows: C:\Archivos de programa\ibm\edge\lb\servers\configurations\componente
    force
    Para guardar el archivo en un archivo existente con el mismo nombre, utilice force para suprimir el archivo existente antes de guardar el nuevo archivo. Si no utiliza la opción force, no se sobrescribirá el archivo existente.
    newload
    Carga un nuevo archivo de configuración en Site Selector. El nuevo archivo de configuración sustituirá a la configuración actual.

    Ejemplos

    sscontrol help -- mostrar o imprimir ayuda para este mandato

    >>-sscontrol--help--+-advisor----+-----------------------------><
                        +-file-------+
                        +-help-------+
                        +-host-------+
                        +-logstatus--+
                        +-manager----+
                        +-metric-----+
                        +-nameserver-+
                        +-rule-------+
                        +-server-----+
                        +-set--------+
                        +-sitename---+
                        '-status-----'
     
     
    

    Ejemplos

    sscontrol logstatus -- mostrar valores de anotaciones cronológicas de servidor


    >>-sscontrol--logstatus----------------------------------------><
     
     
    

    logstatus
    Muestra los valores de las anotaciones cronológicas del servidor (nombre de archivo de anotaciones cronológicas, nivel de registro cronológico y tamaño de las anotaciones cronológicas).

    sscontrol manager -- controlar el gestor


    >>-sscontrol--manager--+-interval--segundos----------------------+-><
                           +-loglevel--nivel------------------------+
                           +-logsize--+-unlimited-+-----------------+
                           |          '-bytes-----'                 |
                           +-metric set--+-loglevel--nivel--------+-+
                           |             '-logsize--+-unlimited-+-' |
                           |                        '-bytes-----'   |
                           +-reach set--+-interval--segundos------+--+
                           |            +-loglevel--nivel--------+  |
                           |             '-logsize--+-unlimited-+-' |
                           |                       '-bytes-----'    |
                           +-report--nombresitio+sn2+...+snN-----------+
                           +-restart--mensaje-----------------------+
                           +-sensitivity--peso----------------------+
                           +-smoothing--índice de suavizado---------+
                           +-start--+----------------------+--------+
                           |        '-archivo_anotaciones--puerto_métrica-'        |
                           +-status---------------------------------+
                           +-stop-----------------------------------+
                           '-version--------------------------------'
     
     
    

    interval
    Establece la frecuencia con la que el gestor actualiza los pesos de los servidores.
    segundos
    Número positivo en segundos que representa la frecuencia con la que el gestor actualiza pesos. El valor predeterminado es 2.
    loglevel
    Establece el nivel de registro cronológico para las anotaciones cronológicas del gestor.
    nivel
    El número del nivel (0 a 5). Cuanto más alto sea el número, más información se anotará en las anotaciones cronológicas del gestor. El valor predeterminado es 1. Los valores posibles son:
    logsize
    Establece el tamaño máximo de las anotaciones cronológicas del gestor. Cuando se establece un tamaño máximo para el archivo de anotaciones cronológicas, el texto del archivo vuelve al principio; es decir, cuando el archivo alcanza el tamaño especificado, las entradas subsiguientes se anotarán al principio del archivo y se grabarán encima de las entradas de anotaciones cronológicas anteriores. El tamaño de las anotaciones cronológicas no puede establecerse más pequeño que el tamaño actual de las anotaciones cronológicas. Las entradas de las anotaciones cronológicas incluyen la indicación de la hora para poder saber el orden en el que se anotaron. Cuando más alto se establezca el nivel de anotaciones cronológicas, más cuidado deberá tener al elegir el tamaño de las anotaciones cronológicas porque, cuando el registro cronológico está establecido en los niveles más altos, puede quedarse sin espacio rápidamente.
    bytes
    El tamaño máximo en bytes para el archivo de anotaciones cronológicas de gestor. Puede especificar un número positivo mayor que cero o la palabra unlimited. Es posible que el archivo de anotaciones cronológicas no alcance el tamaño máximo exacto antes de empezar a sobrescribir porque el tamaño de las entradas del archivo varían. El valor predeterminado es 1 MB.
    metric set
    Establece loglevel y logsize para las anotaciones cronológicas del supervisor de métrica. loglevel es el nivel de registro cronológico del supervisor de métrica (0 - Ninguno,1 - Mínimo,2 - Básico,3 - Moderado, 4 - Avanzado o 5 - Detallado). El valor predeterminado de loglevel es 1. El logsize es el número máximo de bytes que deben anotarse en el archivo de anotaciones cronológicas del supervisor de métrica. Puede especificar un número positivo mayor que cero o unlimited. El valor predeterminado de logsize es 1.
    reach set
    Establece el intervalo, el nivel de anotaciones cronológicas y el tamaño de las anotaciones cronológicas para el asesor de alcance.
    report
    Muestra un informe de instantánea de estadísticas.
    nombresitio
    El nombre de sitio que desea que se muestre en el informe. Esto es un nombre de host que no es posible resolver que el cliente solicitará. El nombre de sitio debe ser un nombre de dominio completamente cualificado.
    Nota:
    Los nombres de sitios adicionales se separan mediante un signo más (+).
    restart
    Reinicia todos los servidores (que no están inactivos) para pesos normalizados (1/2 del peso máximo).
    mensaje
    Mensaje que desea escribir en el archivo de anotaciones cronológicas del gestor.
    sensitivity
    Establece la sensibilidad mínima en la que se actualizan los pesos. Este valor define cuando el gestor debe cambiar su ponderación para el servidor basándose en información externa.
    peso
    Número comprendido entre 0 y 100 utilizado como porcentaje de peso. El valor predeterminado 5 crea una sensibilidad mínima del 5%.
    smoothing
    Establece un índice que suavice las variaciones en el peso al realizar el equilibrio de carga. Un índice de suavizado más alto hará que los pesos de servidores cambien menos radicalmente cuando cambian las condiciones de la red. Un índice más bajo hará que los pesos de servidores cambien de forma más radical.
    índice
    Número de coma flotante positivo. El valor predeterminado es 1,5.
    start
    Inicia el gestor.
    archivo_anotaciones
    Nombre de archivo en el que se anotan los datos del gestor. Cada registro de las anotaciones cronológicas incluye la indicación de la hora.

    El archivo predeterminado se instala en el directorio logs. Consulte el Apéndice C. Archivos de configuración de ejemplo. Para cambiar el directorio en el que se guardan los archivos de anotaciones cronológicas, consulte el apartado Cambio de las vías de acceso del archivo de anotaciones cronológicas.

    puerto_métrica
    Puerto que Metric Server utiliza para notificar cargas del sistema. Si especifica un puerto de métrica, debe especificar un nombre de archivo de anotaciones cronológicas. El puerto de métrica predeterminado es 10004.
    status
    Muestra el estado actual y los valores predeterminados de todos los valores globales del gestor.
    stop
    Detiene el gestor.
    version
    Muestra la versión actual del gestor.

    Ejemplos

    sscontrol metric -- configurar métrica del sistema

    >>-sscontrol--metric--+-add--nombresitio+sn2+...+snN:métrica+métrica1+...+métricaN--------------+-><
                          +-remove--nombresitio+sn2+...+snN:métrica+métrica1+...+métricaN-----------+
                          +-proportions--nombresitio+sn2+...+snN:proporción1 prop2 prop3...propN-+
                          '-status--nombresitio+sn2+...+snN métrica+métrica1+...+métricaN-----------'
     
     
    

    add
    Añadir la métrica específica.
    nombresitio
    El nombre de sitio configurado. Los nombres de sitios adicionales se separan mediante un signo más (+).
    métrica
    El nombre del sistema métrico. Debe ser el nombre de un archivo script o ejecutable en el directorio de scripts de Metric Server.
    remove
    Elimina la métrica especificada.
    proportions
    Proportions determina la importancia de cada métrica en comparación con las demás cuando se combinan en una sola carga del sistema para un servidor.
    status
    Muestra los valores de servidor actuales para esta métrica.

    Ejemplos

    sscontrol nameserver -- controlar el servidor de nombres

    >>-sscontrol--nameserver--+-start--+----------------------+-+--><
                              |        '-bindaddress--dirección-' |
                              +-stop----------------------------+
                              '-status--------------------------'
     
     
    

    start
    Inicia el servidor de nombres.
    bindaddress
    Inicia el enlace del servidor de nombres con la dirección especificada. El servidor de nombres responde sólo a una petición destinada para esta dirección.
    dirección
    Dirección (IP o simbólica) configurada en la máquina Site Selector.
    stop
    Detiene el servidor de nombres.
    status
    Muestra el estado del servidor de nombres.

    sscontrol rule -- configurar reglas

    >>-sscontrol--rule--+-add--nombresitio+sn2+...+snN:regla+r2+...+rN--type--valor--| value |--| opts |-+-><
                        +-dropserver--nombresitio+sn2+...+snN:regla+r2+...+rN--servidor+s2+...+snN---------+
                        +-remove--nombresitio+sn2+...+snN:regla+r2+...+rN--------------------------------+
                        +-set--nombresitio+sn2+...+snN:regla+r2+...+rN--| value |--| opts |--------------+
                        +-status--nombresitio+sn2+...+snN:regla+r2+...+rN--------------------------------+
                        '-useserver--nombresitio+sn2+...+snN:regla+r2+...+rN--servidor+s2+...+snN----------'
     
    opts:
     
    |--+---------------------------------+--------------------------|
       +-beginrange--bajo--endrange--alto-+
       +-priority--valor-----------------+
       '-metricname--valor---------------'
     
     
    

    add
    Añade esta regla a un nombre de sitio.
    nombresitio
    Nombre de host que no es posible resolver que el cliente solicitará. El nombre de sitio debe ser un nombre de dominio completamente cualificado. Los nombres de sitios adicionales se separan mediante un signo más (+).
    regla
    Nombre que se selecciona para la regla. Este nombre puede contener cualquier carácter alfanumérico, subrayado, guión o punto. Puede tener de 1 a 20 caracteres y no puede contener blancos.
    Nota:
    Las reglas adicionales se separan mediante un signo más (+).
    type
    Tipo de regla.
    tipo
    Las opciones de tipo son:

    ip
    La regla se basa en la dirección IP de cliente.

    metricall
    La regla se basa en el valor de métrica actual para todos los servidores en el conjunto de servidores.

    metricavg
    La regla se basa en el promedio de los valores de métrica actual para todos los servidores en el conjunto de servidores.

    tiempo
    La regla se basa en la hora del día.

    true
    La regla es siempre cierta. Piense en ella como si fuera una sentencia else en lógica de programación.
    beginrange
    El valor más pequeño del rango utilizado para determinar si una regla es cierta.
    bajo
    Depende del tipo de regla. El tipo de valor y su valor predeterminado se listan según el tipo de regla:

    ip
    La dirección del cliente, en forma de nombre simbólico o en un formato de dirección IP. El valor predeterminado es 0.0.0.0.

    tiempo
    Número entero. El valor predeterminado es 0, que representa medianoche.

    metricall
    Número entero. El valor predeterminado es 100.

    metricavg
    Número entero. El valor predeterminado es 100.
    endrange
    El valor más alto del rango utilizado para determinar si la regla es cierta.
    alto
    Depende del tipo de regla. El tipo de valor y su valor predeterminado se listan según el tipo de regla:

    ip
    La dirección del cliente, en forma de nombre simbólico o en un formato de dirección IP. El valor predeterminado es 255.255.255.254.

    tiempo
    Número entero. El valor predeterminado es 24, que representa medianoche.
    Nota:
    Al definir beginrange y endrange de los intervalos de tiempo, tenga en cuenta que cada valor debe ser un entero que represente sólo la porción de la hora del tiempo; no se especifican las fracciones de una hora. Por esta razón, para especificar una sola hora, por ejemplo la hora entre las 3:00 y las 4:00, debería especificar 3 en beginrange y también 3 en endrange. Esto indicará todos los minutos, empezando en 3:00 y terminando en 3:59. Si especifica 3 en beginrange y 4 en endrange, abarcará un periodo de dos horas, de las 3:00 hasta las 4:59.

    metricall
    Número entero. El valor predeterminado es 2 elevado a la 32 menos 1.

    metricavg
    Número entero. El valor predeterminado es 2 elevado a la 32 menos 1.
    priority
    El orden en el que se revisan las reglas.
    nivel
    Número entero. Si no especifica la prioridad de la primera regla que añade, Site Selector la establece, de manera predeterminada, en 1. Cuando posteriormente se añade otra regla, de manera predeterminada su prioridad se calcula sumando 10 a la prioridad más baja actual de cualquier regla existente. Por ejemplo, suponga que tiene una regla existente con una prioridad 30. Añada una nueva regla con la prioridad 25 (que es una prioridad más alta que 30). A continuación, añada una tercera regla sin establecer la prioridad. La prioridad de la tercera regla se calculará como 40 (30 + 10).
    metricname
    Nombre de la métrica medida para una regla.
    dropserver
    Elimina un servidor del conjunto de reglas.
    servidor
    Dirección IP de la máquina servidor TCP como nombre simbólico o en formato de dirección IP.
    Nota:
    Los nombres de sitios adicionales se separan mediante un signo más (+).
    remove
    Elimina una o más reglas, separadas entre sí por signos más.
    set
    Establece los valores para esta regla.
    status
    Muestra todos los valores de una o más reglas.
    useserver
    Inserta el servidor en un conjunto de reglas.

    Ejemplos

    sscontrol server -- configurar servidores

    >>-sscontrol--server--+-add--nombresitio+sn2+...+snN:servidor+s2+...+sN--+------------------------+-+-><
                          |                                             +-metricaddress--dirección-+ |
                          |                                             '-weight--valor----------' |
                          +-down--nombresitio+sn2+...+snN:servidor+s2+...+sN----------------------------+
                          +-remove--nombresitio+sn2+...+snN:servidor+s2+...+sN--------------------------+
                          +-set--nombresitio+sn2+...+snN:servidor+s2+...+sN--+------------------------+-+
                          |                                             +-metricaddress--dirección-+ |
                          |                                             '-weight--valor----------' |
                          +-status--nombresitio+sn2+...+snN:servidor+s2+...+sN--------------------------+
                          '-up--nombresitio+sn2+...+snN:servidor+s2+...+sN------------------------------'
     
     
    

    add
    Añade este servidor.
    nombresitio
    Nombre de host que no es posible resolver que el cliente solicitará. El nombre de sitio debe ser un nombre de dominio completamente cualificado. Los nombres de sitios adicionales se separan mediante un signo más (+).
    servidor
    Dirección IP de la máquina servidor TCP como nombre simbólico o en formato de dirección IP.
    Nota:
    Los servidores adicionales se separan mediante un signo más (+).
    metricaddress
    Dirección de Metric Server.
    dirección
    La dirección del servidor, en forma de nombre simbólico o en un formato de dirección IP.
    weight
    Número comprendido entre 1 y 100 (no exceda el máximo valor de ponderación del puerto del nombre del sitio especificado) que representa el peso de este servidor. Si se establece el peso en cero, se impedirá que se envíen nuevas peticiones al servidor. El valor predeterminado es la mitad del valor máximo de weightbound para el nombre de sitio especificado. Si el gestor se está ejecutando, este valor se sobrescribirá.
    valor
    El valor de peso del servidor.
    down
    Marca este servidor como inactivo. Este mandato impide que se resuelva cualquier otra petición para dicho servidor.
    remove
    Elimina este servidor.
    set
    Establece los valores para este servidor.
    status
    Muestra el estado de los servidores.
    up
    Marca este servidor como activo. Site Selector ahora resolverá nuevas peticiones para dicho servidor.

    Ejemplos

    sscontrol set -- configurar anotaciones cronológicas de servidor

    >>-sscontrol--set--+-loglevel--nivel--------+------------------><
                       '-logsize--+-unlimited-+-'
                                  '-tamaño------'
     
     
    

    loglevel
    El nivel en el que el ssserver anota sus actividades.
    nivel
    El valor predeterminado de loglevel es 0. Los valores posibles son:
    logsize
    El número máximo de bytes que se deben anotar en el archivo de anotaciones cronológicas.
    tamaño
    El valor predeterminado de logsize es 1 MB.

    sscontrol sitename -- configurar un nombre de sitio

    >>-sscontrol--sitename--+-add--nombresitio+sn2+...+snN--+----------------------------------------+-+-><
                            |                            +-cachelife--valor-----------------------+ |
                            |                            +-networkproximity--sí | no-------------+ |
                            |                            +-proportions--cpu--memoria--puerto--métrica-+ |
                            |                            +-proximitypercentage--valor-------------+ |
                            |                            +-stickytime--tiempo---------------------+ |
                            |                            +-ttl--tiempo----------------------------+ |
                            |                            +-waitforallresponses--sí | no-----------+ |
                            |                            '-weightbound--peso----------------------' |
                            +-remove--nombresitio+sn2+...+snN---------------------------------------+
                            +-set--nombresitio+sn2+...+snN--+-------------------------------------+-+
                            |                            +-cachelife--valor-----------------------+ |
                            |                            +-networkproximity--sí | no-------------+ |
                            |                            +-proportions--cpu--memoria--puerto--métrica-+ |
                            |                            +-proximitypercentage--valor-------------+ |
                            |                            +-stickytime--tiempo---------------------+ |
                            |                            +-ttl--tiempo----------------------------+ |
                            |                            +-waitforallresponses--sí | no-----------+ |
                            |                            '-weightbound--peso----------------------' |
                            '-status--nombresitio+sn2+...+snN------------------------------------------'
     
     
    

    add
    Añade un nuevo nombre de sitio.
    nombresitio
    Nombre de host que no se puede resolver, solicitado por el cliente. Los nombres de sitios adicionales se separan mediante un signo más (+).
    cachelife
    Cantidad de tiempo que una respuesta de proximidad será válida y se guardará en la memoria caché. El valor predeterminado es 1800. Consulte el apartado Utilización de la característica proximidad de red para obtener más información.
    valor
    Número positivo que representa el número de segundos que una respuesta de proximidad será válida y se guardará en la memoria caché.
    networkproximity
    Determina la proximidad de red de cada servidor al cliente que realiza la petición. Utilice esta respuesta de proximidad en la decisión de equilibrio de carga. Activa o desactiva la proximidad. Consulte el apartado Utilización de la característica proximidad de red para obtener más información.
    valor
    Las opciones son sí o no. El valor predeterminado es no, que significa que la proximidad de red está desactivada.
    proportions
    Establece la proporción de la importancia para la CPU, la memoria, el puerto (información de todos los asesores) y la métrica del sistema del Metric Server que utiliza el gestor para establecer pesos de servidor. Cada uno de estos valores se expresan como porcentaje del total y el total siempre es 100.

    CPU
    El porcentaje de la CPU en uso en cada máquina servidor con equilibrio de carga (entrada del agente de Metric Server).

    memoria
    El porcentaje de la memoria en uso (entrada del agente de Metric Server) en cada servidor con equilibrio de carga

    puerto
    La entrada de los asesores que escuchan en el puerto.

    sistema
    La entrada de Metric Server.
    proximitypercentage
    Establece la importancia de la respuesta de proximidad frente al estado del servidor (peso del gestor). Consulte el apartado Utilización de la característica proximidad de red para obtener más información.
    valor
    El valor predeterminado es 50.
    stickytime
    El intervalo durante el que un cliente recibirá el mismo ID de servidor devuelto anteriormente para la primera petición. El valor predeterminado de stickytime es 0, lo que significa que el nombre de sitio no es permanente en memoria.
    tiempo
    Número positivo distinto de cero que representa el número de segundos durante los que el cliente recibe el mismo ID de servidor devuelto anteriormente para la primera petición.
    ttl
    Establece la duración. Esto indica cuánto tiempo otro servidor de nombres guardará en la memoria caché la respuesta resuelta. El valor predeterminado es 5.
    valor
    Número positivo que representa el número de segundos que el servidor de nombres guardará en la memoria caché la respuesta resuelta.
    waitforallresponses
    Establece si se debe esperar a recibir todas las respuestas de proximidad de los servidores antes de responder a la petición de cliente. Consulte el apartado Utilización de la característica proximidad de red para obtener más información.
    valor
    Las opciones son sí o no. El valor predeterminado es no.
    weightbound
    Número que representa el peso máximo que puede establecerse para los servidores en este nombre de sitio. El valor de weightbound establecido para el nombre de sitio puede alterarse temporalmente para servidores individuales mediante server weight. El valor predeterminado de sitename weightbound es 20.
    peso
    El valor de weightbound.
    set
    Establece las propiedades del nombre del sitio.
    remove
    Elimina este nombre de sitio.
    status
    Muestra el estado actual de un nombre de sitio específico.

    Ejemplos

    sscontrol status -- mostrar si el gestor y los asesores se están ejecutando

    >>-sscontrol--status-------------------------------------------><
     
     
    

    Ejemplos


    Referencia de mandatos para Cisco CSS Controller

    En este capítulo se describe cómo utilizar los siguientes mandatos ccocontrol para Cisco CSS Controller:

    Puede utilizar una versión abreviada de los parámetros del mandato ccocontrol escribiendo las letras exclusivas de los parámetros. Por ejemplo, para obtener ayuda sobre el mandato para guardar archivos, puede escribir ccocontrol he f en lugar de ccocontrol help file.

    Para obtener el indicador de mandatos ccocontrol, escriba ccocontrol.

    Para finalizar la interfaz de línea de mandatos, escriba exit o quit.

    Nota:
    Debe utilizar caracteres del idioma inglés en todos los valores de parámetros de mandatos. Las únicas excepciones son los nombres de host (que se utilizan en los mandatos del servidor) y los nombres de archivo (que se utilizan en los mandatos de archivo).

    ccocontrol consultant -- configurar y controlar un consultor

    >>-ccocontrol--consultant--+-add--IDcc--address--dirIPconm--community--nombreComunidad-+-><
                               +-binarylog--IDcc+IDcc2...--+-report-------------+--+
                               |                           +-set--+-intervalo--+-+  |
                               |                           |      '-retención-' |  |
                               |                           +-start--------------+  |
                               |                           '-stop---------------'  |
                               +-remove--IDcc+IDcc2...-----------------------------+
                               +-report--IDcc+IDcc2...-----------------------------+
                               +-set--+-loglevel--nivel----------------+-----------+
                               |      +-logsize--+-tamaño------+---------+           |
                               |      |          '-ilimitado-'         |           |
                               |      +-sensitivity--porcentaje de peso-+           |
                               |      '-sleeptime--segundos-------------'           |
                               +-start--IDcc+IDcc2...------------------------------+
                               '-stop--IDcc+IDcc2...-------------------------------'
     
     
    

    add
    Añade un consultor de conmutador.
    IDcc (ID_consultor_conmutador)
    Serie definida por el usuario que hace referencia al consultor.
    address
    La dirección IP del conmutador Cisco CSS al que el consultor proporciona pesos.
    direcIPconm (direcciónIPconmutador)
    Dirección IP del conmutador.
    community
    Nombre utilizado en SNMP para obtener y establecer comunicaciones con el conmutador Cisco CSS.
    nombreComunidad
    Nombre de comunidad de lectura/grabación del conmutador Cisco CSS.
    binarylog
    Controla el registro cronológico en binario para un consultor.
    report
    Informa sobre las características del registro cronológico.
    set
    Establece la frecuencia, en segundos, con la que la información se escribe en las anotaciones cronológicas en binario. La característica de registro cronológico permite almacenar la información de servicio en archivos de anotaciones cronológicas en binario para cada servicio definido en la configuración. La información se graba en las anotaciones cronológicas sólo cuando hayan transcurrido los segundos especificados en el intervalo de anotaciones cronológicas después de anotarse el último registro en el archivo de anotaciones cronológicas. El intervalo de registro cronológico en binario predeterminado es 60.
    intervalo
    Establece el número de segundos entre las entradas de las anotaciones cronológicas en binario.
    retención
    Establece el número de horas que se conservan los archivos de anotaciones cronológicas en binario.
    start
    Inicia el registro cronológico en binario.
    stop
    Detiene el registro cronológico en binario.
    remove
    Elimina un consultor de conmutador.
    report
    Informa sobre las características de consultores del conmutador.
    set
    Establece las características de consultores de conmutador.
    loglevel
    Establece el nivel en el que el consultor de conmutador registra las actividades. El valor predeterminado es 1.
    nivel
    El número del nivel de 0 a 5. El valor predeterminado es 1. Los valores posibles son:

    0 = Ninguno

    1 = Mínimo

    2 = Básico

    3 = Moderado

    4 = Avanzado

    5 = Detallado

    logsize
    Establece el número máximo de bytes anotados en el archivo de anotaciones cronológicas. El valor predeterminado es 1048576. Cuando se establece un tamaño máximo para el archivo de anotaciones cronológicas, el texto del archivo vuelve al principio; es decir, cuando el archivo alcanza el tamaño especificado, las entradas subsiguientes se anotarán al principio del archivo y se grabarán encima de las entradas de anotaciones cronológicas anteriores. El tamaño de las anotaciones cronológicas no puede establecerse más pequeño que el tamaño actual de las anotaciones cronológicas. Las entradas de las anotaciones cronológicas incluyen la indicación de la hora para poder saber el orden en el que se anotaron. Cuando más alto se establezca el nivel de anotaciones cronológicas, más cuidado deberá tener al elegir el tamaño de las anotaciones cronológicas porque, cuando el registro cronológico está establecido en los niveles más altos, puede quedarse sin espacio rápidamente.
    tamaño
    Número máximo de bytes anotados en las anotaciones cronológicas del consultor. Puede especificar un número positivo mayor que cero o la palabra unlimited. Es posible que el archivo de anotaciones cronológicas no alcance el tamaño máximo exacto antes de empezar a sobrescribir porque el tamaño de las entradas del archivo varían.
    sensitivity
    Indica la cantidad de cambio que debe tener lugar entre los pesos anteriores y nuevos para que el peso cambie. Para que el peso cambie, la diferencia entre el peso nuevo y el antiguo debe ser mayor que el porcentaje de sensibilidad. El rango válido es de 0 a 100; el valor predeterminado es 5.
    porcentaje de peso
    Entero que oscila entre 0 y 100, que representa el valor de sensibilidad.
    sleeptime
    Establece el número de segundos de inactividad entre ciclos de definición de pesos. El valor predeterminado es 7.
    segundos
    Entero que representa el tiempo de inactividad en segundos. El rango válido es de 0 a 2.147.460.
    start
    Inicia la recopilación de métricas y la definición de pesos.
    stop
    Detiene la recopilación de métricas y la definición de pesos.

    Ejemplos

    ccocontrol controller -- gestionar el controlador

    >>-ccocontrol--controller--+-report--------------------------+-><
                               '-set--+------------------------+-'
                                      +-loglevel--nivel--------+
                                      '-logsize--+-tamaño------+-'
                                                 '-ilimitado-'
     
     
    

    report
    Muestra características del controlador. La información de la versión se muestra como parte de este informe.
    set
    Establece las características del controlador.
    loglevel
    Establece el nivel en el que el controlador registra las actividades. El valor predeterminado es 1.
    nivel
    El número del nivel de 0 a 5. El valor predeterminado es 1. Los valores posibles son:

    0 = Ninguno

    1 = Mínimo

    2 = Básico

    3 = Moderado

    4 = Avanzado

    5 = Detallado

    logsize
    Establece el número máximo de bytes anotados en el archivo de anotaciones cronológicas. El valor predeterminado es 1048576. Cuando se establece un tamaño máximo para el archivo de anotaciones cronológicas, el texto del archivo vuelve al principio; es decir, cuando el archivo alcanza el tamaño especificado, las entradas subsiguientes se anotarán al principio del archivo y se grabarán encima de las entradas de anotaciones cronológicas anteriores. El tamaño de las anotaciones cronológicas no puede establecerse más pequeño que el tamaño actual de las anotaciones cronológicas. Las entradas de las anotaciones cronológicas incluyen la indicación de la hora para poder saber el orden en el que se anotaron. Cuando más alto se establezca el nivel de anotaciones cronológicas, más cuidado deberá tener al elegir el tamaño de las anotaciones cronológicas porque, cuando el registro cronológico está establecido en los niveles más altos, puede quedarse sin espacio rápidamente.
    tamaño | unlimited
    Número máximo de bytes anotados en las anotaciones cronológicas del consultor. Puede especificar un número positivo mayor que cero o la palabra unlimited. Es posible que el archivo de anotaciones cronológicas no alcance el tamaño máximo exacto antes de empezar a sobrescribir porque el tamaño de las entradas del archivo varían.

    Ejemplos

    ccocontrol file -- gestionar archivos de configuración

    >>-ccocontrol--file--+-delete--nombre_archivo----------+-------------><
                         +-load--nombre_archivo------------+
                         +-report--------------------+
                         '-save--nombre_archivo--+-------+-'
                                           '-force-'
     
     
    

    delete
    Suprime el archivo de configuración especificado.
    nombre_archivo
    Un archivo de configuración. La extensión de archivo debe ser .xml. Si no se especifica esta extensión, se supondrá.
    load
    Carga la configuración almacenada en el archivo especificado.
    Nota:
    Cuando se carga un archivo se añadirá a la configuración que se ejecuta la configuración almacenada en dicho archivo. Si desea cargar una nueva configuración, debe detener y reiniciar el servidor antes de cargar el archivo.
    report
    Lista los archivos de configuración.
    save
    Guarda la configuración actual en el archivo especificado.
    Nota:
    Los archivos se guardan y se cargan de los siguientes directorios:
    • Sistemas AIX: /opt/ibm/edge/lb/servers/configurations/cco
    • Sistemas Linux: /opt/ibm/edge/lb//servers/configurations/cco
    • Sistemas Solaris: /opt/ibm/edge/lb/servers/configurations/cco
    • Sistemas Windows:

      Directorio de instalación (predeterminado): C:\Archivos de programa\ibm\edge\lb\servers\configurations\cco

    force
    Guarda en un archivo existente.

    Ejemplos

    ccocontrol help -- mostrar o imprimir ayuda para este mandato

    >>-ccocontrol--help--+-controller-------+----------------------><
                         +-consultant-------+
                         +-file-------------+
                         +-help-------------+
                         +-highavailability-+
                         +-metriccollector--+
                         +-ownercontent-----+
                         '-service----------'
     
     
    

    Ejemplos

    ccocontrol highavailability -- controlar alta disponibilidad


    >>-ccocontrol--highavailability--+-add--+-address--dirección---------------+-+-><
                                     |      +-partneraddress--partneraddress-+ |
                                     |      +-port--puerto---------------------+ |
                                     |      '-role--+-primario---+------------' |
                                     |              '-secundario-'              |
                                     +-dropreach--dirección----------------------+
                                     +-remove----------------------------------+
                                     +-report----------------------------------+
                                     +-set--+-beatinterval--tiempo-----+---------+
                                     |      +-takeoverinterval--tiempo-+         |
                                     |      +-loglevel--nivel--------+  |
                                     |      '-logsize--+-tamaño------+-'         |
                                     |                 '-ilimitado-'           |
                                     +-start--+-auto---+-----------------------+
                                     |        '-manual-'                       |
                                     +-stop------------------------------------+
                                     +-takeover--------------------------------+
                                     '-usereach--dirección-----------------------'
     
     
    

    add
    Configura un nodo de alta disponibilidad, un socio y destinos de alcance.
    address
    Dirección de la que se reciben los pulsos.
    dirección
    Dirección IP del nodo de alta disponibilidad.
    partneraddress
    Dirección a la que se envían los pulsos. Se trata de la dirección IP o el nombre de host configurado en el nodo asociado. Esta dirección se utiliza para comunicarse con la máquina de alta disponibilidad asociada.
    dirección
    Dirección IP del asociado.
    port
    Puerto utilizado para comunicarse con el socio. El valor predeterminado es 12345.
    puerto
    El número del puerto.
    role
    El rol de alta disponibilidad.
    primario | secundario
    El rol primario o secundario.
    dropreach
    Elimina este destino de alcance de los criterios de alta disponibilidad.
    dirección
    Dirección IP del destino de alcance.
    remove
    Elimina el nodo, el socio y el destino de alcance de la configuración de alta disponibilidad. Antes de utilizar este mandato debe detenerse la alta disponibilidad.
    report
    Muestra información de alta disponibilidad.
    set
    Establece las características de alta disponibilidad.
    beatinterval
    Establece la frecuencia, en milisegundos, con la que se envían pulsos al socio. El valor predeterminado es 500.
    tiempo
    Entero positivo que representa el intervalo de pulso, en milisegundos.
    takeoverinterval
    Establece el intervalo de tiempo, en milisegundos, que debe transcurrir (durante el que no se recibe ningún pulso) antes de que se produzca una toma de control. El valor predeterminado es 2000.
    tiempo
    Entero positivo que representa el intervalo de toma de control, en milisegundos.
    loglevel
    Establece el nivel en el que se registran las actividades. El valor predeterminado es 1.
    nivel
    El número del nivel de 0 a 5. El valor predeterminado es 1. Los valores posibles son:

    0 = Ninguno

    1 = Mínimo

    2 = Básico

    3 = Moderado

    4 = Avanzado

    5 = Detallado

    logsize
    Establece el número máximo de bytes anotados en el archivo de anotaciones cronológicas de alta disponibilidad. El valor predeterminado es 1048576. Cuando se establece un tamaño máximo para el archivo de anotaciones cronológicas, el texto del archivo vuelve al principio; es decir, cuando el archivo alcanza el tamaño especificado, las entradas subsiguientes se anotarán al principio del archivo y se grabarán encima de las entradas de anotaciones cronológicas anteriores. El tamaño de las anotaciones cronológicas no puede establecerse más pequeño que el tamaño actual de las anotaciones cronológicas. Las entradas de las anotaciones cronológicas incluyen la indicación de la hora para poder saber el orden en el que se anotaron. Cuando más alto se establezca el nivel de anotaciones cronológicas, más cuidado deberá tener al elegir el tamaño de las anotaciones cronológicas porque, cuando el registro cronológico está establecido en los niveles más altos, puede quedarse sin espacio rápidamente.
    tamaño | unlimited
    Número máximo de bytes anotados en las anotaciones cronológicas de alta disponibilidad. Puede especificar un número positivo mayor que cero o la palabra unlimited. Es posible que el archivo de anotaciones cronológicas no alcance el tamaño máximo exacto antes de empezar a sobrescribir porque el tamaño de las entradas del archivo varían.
    start
    Inicia el uso de alta disponibilidad. Antes de utilizar este mandato se debe configurar un nodo de alta disponibilidad, un socio y destino de alcance.
    auto | manual
    Determina si se inicia la alta disponibilidad con una estrategia de recuperación automática o manual.
    stop
    Deja de utilizar la alta disponibilidad.
    takeover
    Asume el control desde el nodo de alta disponibilidad activo.
    usereach
    La dirección del destino de alcance que empezará a utilizar la alta disponibilidad. Añada un destino de alcance al que pueda accederse mediante un mandato ping, para que los socios de alta disponibilidad puedan determinar la accesibilidad de sus destinos.
    dirección
    Dirección IP del destino de alcance.

    Ejemplos

    ccocontrol metriccollector -- configurar recopilador de métricas

    >>-ccocontrol--metriccollector--+-report--IDcc+IDcc2+...:mN+mN2...--------------------------+-><
                          '-set--IDcc+IDcc2+...:mN+mN2...--+-timeoutconnect--segundos----+-'
                                                                     +-loglevel--nivel--------+
                                                                     +-logsize--+-tamaño------+-+
                                                                     |          '-ilimitado-' |
                                                                     +-timeoutreceive--segundos----+
                                                                     '-sleeptime--segundos---------'
     
     
    

    report
    Muestra las características de un recopilador de métricas.
    IDcc (ID de consultor de conmutador)
    Serie definida por el usuario que hace referencia al consultor.
    nM (nombre de métrica)
    Nombre que identifica la métrica proporcionada o personalizada.
    set
    Establece las características de un recopilador de métricas.
    timeoutconnect
    Establece cuánto tiempo espera el recopilador de métricas antes de notificar que una conexión es anómala.
    segundos
    Entero positivo que representa el tiempo en segundos durante el que el recopilador de métricas espera antes de notificar que se ha producido una anomalía en una conexión a un servicio.
    loglevel
    Establece el nivel en el que el consultor especificado registra las actividades. El valor predeterminado es 1.
    nivel
    El número del nivel. El valor predeterminado es 1. Cuanto más alto sea el número, más información se anotará en las anotaciones cronológicas del consultor. Los valores posibles son:

    0 = Ninguno

    1 = Mínimo

    2 = Básico

    3 = Moderado

    4 = Avanzado

    5 = Detallado

    logsize
    Establece el número máximo de bytes anotados en el archivo de anotaciones cronológicas. El valor predeterminado es 1048576. Cuando se establece un tamaño máximo para el archivo de anotaciones cronológicas, el texto del archivo vuelve al principio; es decir, cuando el archivo alcanza el tamaño especificado, las entradas subsiguientes se anotarán al principio del archivo y se grabarán encima de las entradas de anotaciones cronológicas anteriores. El tamaño de las anotaciones cronológicas no puede establecerse más pequeño que el tamaño actual de las anotaciones cronológicas. Las entradas de las anotaciones cronológicas incluyen la indicación de la hora para poder saber el orden en el que se anotaron. Cuando más alto se establezca el nivel de anotaciones cronológicas, más cuidado deberá tener al elegir el tamaño de las anotaciones cronológicas porque, cuando el registro cronológico está establecido en los niveles más altos, puede quedarse sin espacio rápidamente.
    tamaño | unlimited
    Número máximo de bytes anotados en las anotaciones cronológicas del consultor. Puede especificar un número positivo mayor que cero o la palabra unlimited. Es posible que el archivo de anotaciones cronológicas no alcance el tamaño máximo exacto antes de empezar a sobrescribir porque el tamaño de las entradas del archivo varían.
    timeoutreceive
    Establece cuánto tiempo el consultor espera antes de informar de que no se ha podido realizar una recepción del servicio.
    segundos
    Entero positivo que representa la cantidad de tiempo en segundos que el consultor espera antes de informar que no se ha podido realizar una recepción de un servicio.
    sleeptime
    Establece la cantidad de tiempo en segundos que el recopilador de métricas permanece inactivo entre los ciclos de recolección de métricas.
    Entero positivo que representa el número de segundos de tiempo de inactividad.

    Ejemplos

    ccocontrol ownercontent -- controlar el nombre de propietario y la regla de contenido

    >>-ccocontrol--ownerContent--+-add--IDcc:ocN--ownername--oN--contentrule--cN------------------------------+-><
                                 +-metrics--IDcc+IDcc2...:ocN+ocN2...--nM--importancia--nM2--i2----------------+
                                 +-refresh--IDcc+IDcc2...:ocN+ocN2...-----------------------------------------+
                                 +-remove--IDcc+IDcc2...:ocN+ocN2...------------------------------------------+
                                 +-report--IDcc+IDcc2...:ocN+ocN2...------------------------------------------+
                                 '-set--IDcc+IDcc2...:ocN+ocN2...----metric--nM--+------------------------+---'
                                                                                 +-requeststring--serie--+
                                                                                 +-responsestring--serie-+
    
    '-retry--núm_reintentos------'
     
     
    

    add
    Añade un contenido de propietario al consultor especificado.
    IDcc (ID de consultor de conmutador)
    Serie definida por el usuario que representa al consultor.
    ncP (nombre de contenido de propietario)
    Serie definida por el usuario que representa el nombre del propietario y la regla de contenido del conmutador.
    ownername
    Nombre configurado en el conmutador que identifica la configuración de propietario.
    nP (nombre de propietario)
    Serie de texto exclusivo sin espacios. El nombre de propietario debe ser el mismo que el especificado en el conmutador Cisco.
    contentrule
    Nombre configurado en el conmutador que identifica la configuración de reglas de contenido del propietario.
    Nc (nombre de contenido)
    Serie de texto exclusivo sin espacios. El nombre de contenido debe ser el mismo que el especificado en el conmutador Cisco.
    metrics
    Especifica el conjunto de métricas utilizado en el cálculo de pesos y la importancia de cada métrica. La importancia se expresa como porcentaje del total. La suma de los valores de importancia debe ser 100. La métrica puede ser cualquier combinación de la métrica de datos de conexiones, métrica de asesor de aplicaciones y métrica de Metric Server. Los valores predeterminados son las métricas de conexión activa (activeconn) y velocidad de conexión (connrate) con una importancia de 50/50.
    nM (nombre de métrica)
    Nombre que identifica el recopilador de métricas que recopilará las medidas para determinar el peso del servidor.

    A continuación se muestra una lista de nombres de métrica válidos y sus puertos asociados:

    Nombre del asesor Protocolo Puerto
    connect ICMP 12345
    db2 private 50000
    dns DNS 53
    ftp FTP 21
    http HTTP 80
    https SSL 443
    cachingproxy HTTP (mediante Caching Proxy) 80
    imap IMAP 143
    ldap LDAP 389
    nntp NNTP 119
    ping PING 0
    pop3 POP3 110
    sip SIP 5060
    smtp SMTP 25
    ssl SSL 443
    telnet Telnet 23
    WLM private 10.007
    activeconn n/d n/d
    connrate n/d n/d
    cpuload n/d n/d
    memload n/d n/d
    importancia
    Número de 0 a 100 que representa la importancia de esta métrica en el cálculo de pesos de servidores.
    refresh
    Renueva los servicios configurados con información del configuración Cisco CSS.
    remove
    Elimina un contenido de propietario.
    report
    Informa de las características de contenido de propietario.
    set
    Establece las características del contenido de propietario.
    métrica
    Establece las características de una métrica.
    nM
    Nombre de la métrica que desee.
    requeststring
    Establece una serie de petición para la métrica especificada. Representa la petición que ha enviado un recopilador de métricas para recopilar información de métricas.
    serie
    Serie de petición que ha enviado el recopilador de métricas al servidor.
    responsestring
    Establece una serie de respuesta para la métrica especificada. La serie de respuesta especificada la utiliza el recopilador de métricas para comparar las respuestas que recibe de servidores y posteriormente determinar la disponibilidad de servidores.
    serie
    Serie de respuesta con la que el recopilador de métricas compara las respuestas de servidor recibidas.
    retry
    El parámetro retry establece el número de reintentos que se pueden llevar a cabo antes de marcar un servidor como inactivo.
    num_reintentos
    Número entero mayor que o igual a cero. Este valor no debe ser mayor que 3. Si la palabra clave retry no está configurada, el número de reintentos tendrá el valor predeterminado de cero.

    Ejemplos

    ccocontrol service -- configurar un servicio

    >>-ccocontrol--service--+-report--IDcc+IDcc2...:ocN+ocN2...:svc+svc2...---------------------------------+-><
                            '---set--IDcc+IDcc2...:ocN+ocN2...:svc+svc2...--+---------------------------+---'
                                                                            +-fixedweight--+-entero-+--+
                                                                            |       '-desactiva-----'  |
                                                                            +-requestsourceip--dirIP-----+
                                                                            +-metricserveraddress--dirIP-+
                                                                            '-metricserverport--Npuerto---'
     
     
    

    report
    Muestra las características de servicios.
    IDcc (ID de consultor de conmutador)
    Serie definida por el usuario que representa al consultor.
    ncP (nombre de contenido de propietario)
    Serie definida por el usuario que representa el nombre del propietario y la regla de contenido del conmutador.
    svc (servicio)
    Serie definida por el usuario en el conmutador que representa al servicio.
    set
    Establece características de servicios.
    fixedweight
    Establece un peso fijo para este servicio. El valor predeterminado es off.
    entero | off
    Entero positivo que oscila entre 0 y 10, que representa el peso fijo de este servicio, o la palabra off que especifica que no hay peso fijo.
    requestsourceip
    Establece la dirección desde la que ponerse en contacto con el servicio para obtener las peticiones de aplicación.
    dirIP (dirección IP)
    Dirección IP desde la que ponerse en contacto con el servicio; puede especificarse como nombre simbólico o en formato de dirección IP.
    metricserveraddress
    Establece la dirección en la que ponerse en contacto con el servicio para obtener peticiones de Metric Server.
    dirIP (dirección IP)
    Dirección IP de Metric Server como nombre simbólico o en formato de dirección IP.
    metricserverport
    Establece el puerto que debe utilizarse para ponerse en contacto con Metric Server.
    Npuerto (número de puerto)
    Número de puerto utilizado para ponerse en contacto con Metric Server.

    Ejemplos


    Referencia de mandatos para Nortel Alteon Controller

    En este capítulo se describe cómo utilizar los siguientes mandatos nalcontrol para Nortel Alteon Controller:

    Puede utilizar una versión abreviada de los parámetros del mandato nalcontrol escribiendo las letras exclusivas de los parámetros. Por ejemplo, para obtener ayuda sobre el mandato para guardar archivos, puede escribir nalcontrol he f en lugar de nalcontrol help file.

    Para obtener el indicador de mandatos nalcontrol, escriba nalcontrol.

    Para finalizar la interfaz de línea de mandatos, escriba exit o quit.

    Nota:
    Debe utilizar caracteres del idioma inglés en todos los valores de parámetros de mandatos. Las únicas excepciones son los nombres de host (que se utilizan en los mandatos del servidor) y los nombres de archivo (que se utilizan en los mandatos de archivo).

    nalcontrol consultant -- configurar y controlar un consultor

    >>-nalcontrol--consultant--+-add--IDcc--address--direcIPconm--+---------------------------+-+-><
                               |                               +-rcommunity--NombreComLect--+ |
                               |                               '-wcommunity--NombreCommEscr-' |
                               +-binarylog--IDcc+IDcc2...--+-report------------------------+-+
                               |                           +-set--+-interval--intervalo---+-+ |
                               |                           |      '-retention--retención-' | |
                               |                           +-start-------------------------+ |
                               |                           '-stop--------------------------' |
                               +-remove--IDcc+IDcc2...---------------------------------------+
                               +-report--IDcc+IDcc2...---------------------------------------+
                               +-set--+--------------------------------+---------------------+
                               |      +-loglevel--nivel----------------+                     |
                               |      +-logsize--+-tamaño------+---------+           |
                               |      |          '-ilimitado-'         |           |
                               |      +-sensitivity--porcentaje de peso-+           |
                               |      '-sleeptime--segundos-------------'           |
                               +-start--IDcc+IDcc2...----------------------------------------+
                               '-stop--IDcc+IDcc2...-----------------------------------------'
     
     
    

    add
    Añade un consultor de conmutador.
    IDcc
    Serie definida por el usuario que hace referencia al consultor.
    address
    La dirección IP del conmutador de Nortel Alteon Web al que el consultor proporciona pesos.
    direcIPconm
    Dirección IP del conmutador.
    rcommunity
    Nombre de comunidad de lectura utilizado en comunicaciones de obtención SNMP con el conmutador de Nortel Alteon Web. El valor predeterminado es public.
    NombreComLect
    Serie que representa el nombre de comunidad de lectura, tal como se ha configurado en el conmutador de Nortel Alteon Web. El valor predeterminado es public.
    wcommunity
    Nombre de comunidad de grabación utilizado en las comunicaciones de establecimiento SNMP.
    NombreCommEscr
    Serie que representa el nombre de comunidad de grabación, tal como se ha configurado en el conmutador de Nortel Alteon Web. El valor predeterminado es private.
    binarylog
    Controla el registro cronológico en binario para un consultor.
    report
    Informa sobre las características del registro cronológico.
    set
    Establece la frecuencia, en segundos, con la que la información se escribe en las anotaciones cronológicas en binario. La característica de registro cronológico permite almacenar la información de servicio en archivos de anotaciones cronológicas en binario para cada servicio definido en la configuración. La información se graba en las anotaciones cronológicas sólo cuando hayan transcurrido los segundos especificados en el intervalo de anotaciones cronológicas después de anotarse el último registro en el archivo de anotaciones cronológicas. El intervalo de registro cronológico en binario predeterminado es 60.
    interval
    Establece el número de segundos entre las entradas de las anotaciones cronológicas en binario.
    retención
    Establece el número de horas que se conservan los archivos de anotaciones cronológicas en binario.
    start
    Inicia el registro cronológico en binario.
    stop
    Detiene el registro cronológico en binario.
    remove
    Elimina un consultor de conmutador.
    report
    Informa sobre las características de consultores del conmutador.
    set
    Establece las características de consultores de conmutador.
    loglevel
    Establece el nivel en el que el consultor de conmutador registra las actividades. El valor predeterminado es 1.
    nivel
    El número del nivel de 0 a 5. El valor predeterminado es 1. Los valores posibles son:

    0 = Ninguno

    1 = Mínimo

    2 = Básico

    3 = Moderado

    4 = Avanzado

    5 = Detallado

    logsize
    Establece el número máximo de bytes anotados en el archivo de anotaciones cronológicas. El valor predeterminado es 1048576. Cuando se establece un tamaño máximo para el archivo de anotaciones cronológicas, el texto del archivo vuelve al principio; es decir, cuando el archivo alcanza el tamaño especificado, las entradas subsiguientes se anotarán al principio del archivo y se grabarán encima de las entradas de anotaciones cronológicas anteriores. El tamaño de las anotaciones cronológicas no puede establecerse más pequeño que el tamaño actual de las anotaciones cronológicas. Las entradas de las anotaciones cronológicas incluyen la indicación de la hora para poder saber el orden en el que se anotaron. Cuando más alto se establezca el nivel de anotaciones cronológicas, más cuidado deberá tener al elegir el tamaño de las anotaciones cronológicas porque, cuando el registro cronológico está establecido en los niveles más altos, puede quedarse sin espacio rápidamente.
    tamaño
    Número máximo de bytes anotados en las anotaciones cronológicas del consultor. Puede especificar un número positivo mayor que cero o la palabra unlimited. Es posible que el archivo de anotaciones cronológicas no alcance el tamaño máximo exacto antes de empezar a sobrescribir porque el tamaño de las entradas del archivo varían.
    sensitivity
    Indica la cantidad de cambio que debe tener lugar entre los pesos anteriores y nuevos para que el peso cambie. Para que el peso cambie, la diferencia entre el peso nuevo y el antiguo debe ser mayor que el porcentaje de sensibilidad. El rango válido es de 0 a 100; el valor predeterminado es 5.
    porcentaje de peso
    Entero que oscila entre 0 y 100, que representa el valor de sensibilidad.
    sleeptime
    Establece el número de segundos de inactividad entre ciclos de definición de pesos. El valor predeterminado es 7.
    segundos
    Entero que representa el tiempo de inactividad en segundos. El rango válido es de 0 a 2.147.460.
    start
    Inicia la recopilación de métricas y la definición de pesos.
    stop
    Detiene la recopilación de métricas y la definición de pesos.

    Ejemplos

    nalcontrol controller -- gestionar el controlador

    >>-nalcontrol--controller--+-report--------------------------+-><
                               '-set--+------------------------+-'
                                      +-loglevel--nivel--------+
                                      '-logsize--+-tamaño------+-'
                                                 '-ilimitado-'
     
     
    

    report
    Muestra características del controlador. La información de la versión se muestra como parte de este informe.
    set
    Establece las características del controlador.
    loglevel
    Establece el nivel en el que el controlador registra las actividades. El valor predeterminado es 1.
    nivel
    El número del nivel de 0 a 5. El valor predeterminado es 1. Los valores posibles son:

    0 = Ninguno

    1 = Mínimo

    2 = Básico

    3 = Moderado

    4 = Avanzado

    5 = Detallado

    logsize
    Establece el número máximo de bytes anotados en el archivo de anotaciones cronológicas. El valor predeterminado es 1048576. Cuando se establece un tamaño máximo para el archivo de anotaciones cronológicas, el texto del archivo vuelve al principio; es decir, cuando el archivo alcanza el tamaño especificado, las entradas subsiguientes se anotarán al principio del archivo y se grabarán encima de las entradas de anotaciones cronológicas anteriores. El tamaño de las anotaciones cronológicas no puede establecerse más pequeño que el tamaño actual de las anotaciones cronológicas. Las entradas de las anotaciones cronológicas incluyen la indicación de la hora para poder saber el orden en el que se anotaron. Cuando más alto se establezca el nivel de anotaciones cronológicas, más cuidado deberá tener al elegir el tamaño de las anotaciones cronológicas porque, cuando el registro cronológico está establecido en los niveles más altos, puede quedarse sin espacio rápidamente.
    tamaño | unlimited
    Número máximo de bytes anotados en las anotaciones cronológicas del consultor. Puede especificar un número positivo mayor que cero o la palabra unlimited. Es posible que el archivo de anotaciones cronológicas no alcance el tamaño máximo exacto antes de empezar a sobrescribir porque el tamaño de las entradas del archivo varían.

    Ejemplos

    nalcontrol file -- gestionar archivos de configuración

    >>-nalcontrol--file--+-delete--nombre_archivo-+----------------------><
                         +-load--nombre_archivo---+
                         +-report-----------+
                         '-save--nombre_archivo---'
     
     
    

    delete
    Suprime el archivo de configuración especificado.
    nombre_archivo
    Un archivo de configuración. La extensión de archivo debe ser .xml. Si no se especifica esta extensión, se supondrá.
    load
    Carga la configuración almacenada en el archivo especificado.
    Nota:
    Cuando se carga un archivo se añadirá a la configuración que se ejecuta la configuración almacenada en dicho archivo. Si desea cargar una nueva configuración, debe detener y reiniciar el servidor antes de cargar el archivo.
    report
    Lista los archivos de configuración.
    save
    Guarda la configuración actual en el archivo especificado.
    Nota:
    Los archivos se guardan y se cargan de los siguientes directorios:
    • Sistemas AIX: /opt/ibm/edge/lb/servers/configurations/nal
    • Sistemas Linux: /opt/ibm/edge/lb//servers/configurations/nal
    • Sistemas Solaris: /opt/ibm/edge/lb/servers/configurations/nal
    • Sistemas Windows:

      Vía de acceso al directorio de instalación común: C:\Archivos de programa\ibm\edge\lb\servers\configurations\nal

      Vía de acceso de directorio de instalación nativo: C:\Archivos de programa\ibm\lb\servers\configurations\nal

    Ejemplos

    nalcontrol help -- mostrar o imprimir ayuda para este mandato

    >>-nalcontrol--help--+-controller-------+----------------------><
                         +-consultant-------+
                         +-file-------------+
                         +-help-------------+
                         +-highavailability-+
                         +-metrinalllector--+
                         +-ownercontent-----+
                         '-service----------'
     
     
    

    Ejemplos

    nalcontrol highavailability -- controlar alta disponibilidad


    >>-nalcontrol--highavailability--+-add--+-address--dirección---------------+-+-><
                                     |      +-partneraddress--partneraddress-+ |
                                     |      +-port--puerto---------------------+ |
                                     |      '-role--+-primario---+------------' |
                                     |              '-secundario-'              |
                                     +-dropreach--dirección----------------------+
                                     +-remove----------------------------------+
                                     +-report----------------------------------+
                                     +-set--+-beatinterval--tiempo-----+---------+
                                     |      +-takeoverinterval--tiempo-+         |
                                     |      +-loglevel--nivel--------+  |
                                     |      '-logsize--+-tamaño------+-'         |
                                     |                 '-ilimitado-'           |
                                     +-start--+-auto---+-----------------------+
                                     |        '-manual-'                       |
                                     +-stop------------------------------------+
                                     +-takeover--------------------------------+
                                     '-usereach--dirección-----------------------'
     
     
    

    add
    Configura un nodo de alta disponibilidad, un socio y destinos de alcance.
    address
    Dirección de la que se reciben los pulsos.
    dirección
    Dirección IP del nodo de alta disponibilidad.
    partneraddress
    Dirección a la que se envían los pulsos. Se trata de la dirección IP o el nombre de host configurado en el nodo asociado. Esta dirección se utiliza para comunicarse con la máquina de alta disponibilidad asociada.
    dirección
    Dirección IP del asociado.
    port
    Puerto utilizado para comunicarse con el socio. El valor predeterminado es 12345.
    puerto
    El número del puerto.
    role
    El rol de alta disponibilidad.
    primario | secundario
    El rol primario o secundario.
    dropreach
    Elimina este destino de alcance de los criterios de alta disponibilidad.
    dirección
    Dirección IP del destino de alcance.
    remove
    Elimina el nodo, el socio y el destino de alcance de la configuración de alta disponibilidad. Antes de utilizar este mandato debe detenerse la alta disponibilidad.
    report
    Muestra información de alta disponibilidad.
    set
    Establece las características de alta disponibilidad.
    beatinterval
    Establece la frecuencia, en milisegundos, con la que se envían pulsos al socio. El valor predeterminado es 500.
    tiempo
    Entero positivo que representa el intervalo de pulso, en milisegundos.
    takeoverinterval
    Establece el intervalo de tiempo, en milisegundos, que debe transcurrir (durante el que no se recibe ningún pulso) antes de que se produzca una toma de control. El valor predeterminado es 2000.
    tiempo
    Entero positivo que representa el intervalo de toma de control, en milisegundos.
    loglevel
    Establece el nivel en el que se registran las actividades. El valor predeterminado es 1.
    nivel
    El número del nivel de 0 a 5. El valor predeterminado es 1. Los valores posibles son:

    0 = Ninguno

    1 = Mínimo

    2 = Básico

    3 = Moderado

    4 = Avanzado

    5 = Detallado

    logsize
    Establece el número máximo de bytes anotados en el archivo de anotaciones cronológicas de alta disponibilidad. El valor predeterminado es 1048576. Cuando se establece un tamaño máximo para el archivo de anotaciones cronológicas, el texto del archivo vuelve al principio; es decir, cuando el archivo alcanza el tamaño especificado, las entradas subsiguientes se anotarán al principio del archivo y se grabarán encima de las entradas de anotaciones cronológicas anteriores. El tamaño de las anotaciones cronológicas no puede establecerse más pequeño que el tamaño actual de las anotaciones cronológicas. Las entradas de las anotaciones cronológicas incluyen la indicación de la hora para poder saber el orden en el que se anotaron. Cuando más alto se establezca el nivel de anotaciones cronológicas, más cuidado deberá tener al elegir el tamaño de las anotaciones cronológicas porque, cuando el registro cronológico está establecido en los niveles más altos, puede quedarse sin espacio rápidamente.
    tamaño | unlimited
    Número máximo de bytes anotados en las anotaciones cronológicas de alta disponibilidad. Puede especificar un número positivo mayor que cero o la palabra unlimited. Es posible que el archivo de anotaciones cronológicas no alcance el tamaño máximo exacto antes de empezar a sobrescribir porque el tamaño de las entradas del archivo varían.
    start
    Inicia el uso de alta disponibilidad. Antes de utilizar este mandato se debe configurar un nodo de alta disponibilidad, un socio y destino de alcance.
    auto | manual
    Determina si se inicia la alta disponibilidad con una estrategia de recuperación automática o manual.
    stop
    Deja de utilizar la alta disponibilidad.
    takeover
    Asume el control desde el nodo de alta disponibilidad activo.
    usereach
    La dirección del destino de alcance que empezará a utilizar la alta disponibilidad. Añada un destino de alcance al que pueda accederse mediante un mandato ping, para que los socios de alta disponibilidad puedan determinar la accesibilidad de sus destinos.
    dirección
    Dirección IP del destino de alcance.

    Ejemplos

    nalcontrol metriccollector -- configure metric collector

    >>-nalcontrol--metricollector--+-report--IDcc+IDcc2+...:nM+nM2...--------------------------+-><
                         '-set--IDcc+IDcc2+...:nM+nM2...--+-connecttimeout--segundos----+-'
                                                                    +-loglevel--nivel--------+
                                                                    +-logsize--+-tamaño------+-+
                                                                    |          '-ilimitado-' |
                                                                    +-receivetimeout--segundos----+
                                                                    '-sleeptime--segundos---------'
     
     
    

    report
    Muestra las características de un recopilador de métricas.
    IDcc (ID de consultor de conmutador)
    Serie definida por el usuario que hace referencia al consultor.
    nM (nombre de métrica)
    Nombre que identifica la métrica proporcionada o personalizada.
    set
    Establece las características de un recopilador de métricas.
    connecttimeout
    Establece cuánto tiempo espera el recopilador de métricas antes de notificar que una conexión es anómala.
    segundos
    Entero positivo que representa el tiempo en segundos durante el que el recopilador de métricas espera antes de notificar que se ha producido una anomalía en una conexión a un servicio.
    loglevel
    Establece el nivel en el que el consultor especificado registra las actividades. El valor predeterminado es 1.
    nivel
    El número del nivel. El valor predeterminado es 1. Cuanto más alto sea el número, más información se anotará en las anotaciones cronológicas del consultor. Los valores posibles son:

    0 = Ninguno

    1 = Mínimo

    2 = Básico

    3 = Moderado

    4 = Avanzado

    5 = Detallado

    logsize
    Establece el número máximo de bytes anotados en el archivo de anotaciones cronológicas. El valor predeterminado es 1048576. Cuando se establece un tamaño máximo para el archivo de anotaciones cronológicas, el texto del archivo vuelve al principio; es decir, cuando el archivo alcanza el tamaño especificado, las entradas subsiguientes se anotarán al principio del archivo y se grabarán encima de las entradas de anotaciones cronológicas anteriores. El tamaño de las anotaciones cronológicas no puede establecerse más pequeño que el tamaño actual de las anotaciones cronológicas. Las entradas de las anotaciones cronológicas incluyen la indicación de la hora para poder saber el orden en el que se anotaron. Cuando más alto se establezca el nivel de anotaciones cronológicas, más cuidado deberá tener al elegir el tamaño de las anotaciones cronológicas porque, cuando el registro cronológico está establecido en los niveles más altos, puede quedarse sin espacio rápidamente.
    tamaño | unlimited
    Número máximo de bytes anotados en las anotaciones cronológicas del consultor. Puede especificar un número positivo mayor que cero o la palabra unlimited. Es posible que el archivo de anotaciones cronológicas no alcance el tamaño máximo exacto antes de empezar a sobrescribir porque el tamaño de las entradas del archivo varían.
    receivetimeout
    Establece cuánto tiempo el consultor espera antes de informar de que no se ha podido realizar una recepción del servicio.
    segundos
    Entero positivo que representa la cantidad de tiempo en segundos que el consultor espera antes de informar que no se ha podido realizar una recepción de un servicio.
    sleeptime
    Establece la cantidad de tiempo en segundos que el recopilador de métricas permanece inactivo entre los ciclos de recolección de métricas.
    segundos
    Entero positivo que representa el número de segundos de tiempo de inactividad.

    Ejemplos

    nalcontrol server -- configurar un servidor

    >>-nalcontrol--serer--+-report--IDcc+IDcc2...:IDsvc+IDsvc2...:IDservidor+IDsrv2...---------------------------------+-><
                          '---set--IDcc+IDcc2...:IDsvc+IDsvc2...:IDservidor+IDsrv2--+--------------------------------+---'
                                                                                  +-fixedweight--+-entero-+-------+
                                                                                  |              '-desactiva-----'       |
                                                                                  +-requestsourceip--direcciónIP-----+
                                                                                  +-metricserveraddress--direcciónIP-+
                                                                                  '-metricserverport--númeroPuerto---'
     
     
    

    report
    Muestra las características de servidores.
    IDcc
    Serie definida por el usuario que representa al consultor.
    IDsvc
    Serie definida por el usuario que representa el identificador de servicio virtual y el número de puerto virtual del conmutador.
    IDservidor
    Entero que representa el servidor en el conmutador.
    set
    Establece características de servidores
    fixedweight
    Establece un peso fijo para este servidor. El valor predeterminado es off. El valor máximo de fixedweight es 48.
    entero | off
    Entero positivo que representa el peso fijo para este servidor o la palabra off para especificar que no hay peso fijo.
    requestsourceip
    Establece la dirección desde la que ponerse en contacto con el servidor para obtener las peticiones de aplicación.
    dirección_IP
    Dirección IP desde la que ponerse en contacto con el servidor; puede especificarse como nombre simbólico o en formato de dirección IP.
    metricserveraddress
    Establece la dirección desde la que ponerse en contacto con el servidor para obtener peticiones de Metric Server.
    dirección_IP
    Dirección IP de Metric Server como nombre simbólico o en formato de dirección IP.
    metricserverport
    Establece el puerto que debe utilizarse para ponerse en contacto con Metric Server.
    númeroPuerto
    Número de puerto utilizado para ponerse en contacto con Metric Server.

    Ejemplos

    nalcontrol service -- configurar un servicio

    >>-nalcontrol--service--+-add--IDcc+IDcc2...:IDservicio+IDsvc2...--vsid--IDSvrVir--vport--NúmPuertoVirt------+-><
                            +-metrics--IDcc+IDcc2...:IDsvc+IDsvc2...--nM--importancia--mCN2--i2---------------+
                            +-refresh--IDcc+IDcc2...:IDsvc+IDsvc2...-----------------------------------------+
                            +-remove--IDcc+IDcc2...:IDsvc+IDsvc2...------------------------------------------+
                            +-report--IDcc+IDcc2...:IDsvc+IDsvc2...------------------------------------------+
                            '-set--IDcc+IDcc2...:IDsvc+IDsvc2...----metric--nM----+-requeststring--serie--+-'
                                                                                  +-responsestring--serie-+
    
    '-retry--núm_reintentos------'
     
     
    

    add
    Añade un servicio al consultor especificado.
    IDcc (ID_consultor_conmutador)
    Serie definida por el usuario que hace referencia al consultor.
    IDsvc (ID de servicio)
    Serie definida por el usuario que identifica el servicio.
    vsid
    Palabra clave del identificador de servicio virtual.
    IDSvrVir (ID de servidor virtual)
    Número del conmutador que representa el servidor virtual.
    vport
    Palabra clave de puerto virtual.
    NúmPuertoVirtual (número de puerto virtual)
    Número de puerto del servicio configurado actualmente en el conmutador.
    metrics
    Especifica el conjunto de métricas utilizado en el cálculo de pesos y la importancia de cada métrica. La importancia se expresa como porcentaje del total. La suma de los valores de importancia debe ser 100. La métrica puede ser cualquier combinación de la métrica de datos de conexiones, métrica de asesor de aplicaciones y métrica de Metric Server. Los valores predeterminados son las métricas de conexión activa (activeconn) y velocidad de conexión (connrate) con una importancia de 50/50.
    nM (nombre de métrica)
    Nombre que identifica el recopilador de métricas que recopilará las medidas para determinar el peso del servidor.

    A continuación se muestra una lista de nombres de métrica válidos y sus puertos asociados:

    Nombre del asesor Protocolo Puerto
    connect ICMP 12345
    db2 private 50000
    dns DNS 53
    ftp FTP 21
    http HTTP 80
    https SSL 443
    cachingproxy HTTP (mediante Caching Proxy) 80
    imap IMAP 143
    ldap LDAP 389
    nntp NNTP 119
    ping PING 0
    pop3 POP3 110
    sip SIP 5060
    smtp SMTP 25
    ssl SSL 443
    telnet Telnet 23
    WLM private 10.007
    activeconn n/d n/d
    connrate n/d n/d
    cpuload n/d n/d
    memload n/d n/d
    importancia
    Número de 0 a 100 que representa la importancia de esta métrica en el cálculo de pesos de servidores.
    refresh
    Renueva un servicio con información del conmutador de Nortel Alteon Web.
    remove
    Elimina un servicio.
    report
    Informa de las características de un servicio.
    set
    Establece las características de un servicio.
    métrica
    Establece las características de una métrica configurada.
    nM (nombre de métrica)
    Nombre de la métrica que desee.
    requeststring
    Establece una serie de petición para la métrica especificada. Representa la petición que ha enviado un recopilador de métricas para recopilar información de métricas.
    serie
    Serie de petición que ha enviado el recopilador de métricas al servidor.
    responsestring
    Establece una serie de respuesta para la métrica especificada. La serie de respuesta especificada la utiliza el recopilador de métricas para comparar las respuestas que recibe de servidores y posteriormente determinar la disponibilidad de servidores.
    serie
    Serie de respuesta con la que el recopilador de métricas compara las respuestas de servidor recibidas.
    retry
    El parámetro retry establece el número de reintentos que se pueden llevar a cabo antes de marcar un servidor como inactivo.
    num_reintentos
    Número entero mayor que o igual a cero. Este valor no debe ser mayor que 3. Si la palabra clave retries no está configurada, el número de reintentos tendrá el valor predeterminado de cero.

    Ejemplos


    Apéndices


    Apéndice A. GUI: instrucciones generales

    En la interfaz gráfica de usuario de Load Balancer, el lado izquierdo del panel muestra una estructura de árbol con Load Balancer en el nivel superior y Dispatcher, CBR (Content Based Routing), Site Selector, Cisco CSS Controller y Nortel Alteon Controller como componentes.

    Figura 41. La interfaz gráfica de usuario (GUI) que muestra la expansión de la estructura de árbol de la GUI del componente Dispatcher

    Interfaz gráfica de usuario (GUI) para Load Balancer que muestra la expansión de la estructura de árbol de la GUI del componente Dispatcher

    Figura 42. La interfaz gráfica de usuario (GUI) que muestra la expansión de la estructura de árbol de la GUI del componente CBR

    Interfaz gráfica de usuario (GUI) para Load Balancer que muestra la expansión de la estructura de árbol de la GUI del componente CBR

    Figura 43. La interfaz gráfica de usuario (GUI) que muestra la expansión de la estructura de árbol de la GUI del componente Site Selector

    Interfaz gráfica de usuario (GUI) para Load Balancer que muestra la expansión de la estructura de árbol de la GUI del componente Site Selector

    Figura 44. La interfaz gráfica de usuario (GUI) que muestra la expansión de la estructura de árbol de la GUI del componente Cisco CSS Controller

    La interfaz gráfica de usuario (GUI) para Load Balancer que muestra la expansión de la estructura de árbol de la GUI del componente Cisco CSS Controller

    Figura 45. La interfaz gráfica de usuario (GUI) que muestra la expansión de la estructura de árbol de la GUI del componente Nortel Alteon Controller

    La interfaz gráfica de usuario (GUI) para Load Balancer que muestra la expansión de la estructura de árbol de la GUI para el componente Nortel Alteon Controller

    Todos los componentes pueden configurarse desde la GUI. Puede seleccionar elementos en la estructura de árbol pulsando el botón del ratón (normalmente el botón izquierdo) y, a continuación, mostrar los menús emergentes pulsando el botón dos del ratón (normalmente el botón derecho). También se puede acceder a los menús emergentes de los tres elementos desde la barra de menús situada en la parte superior del panel.

    Pulse los signos más o menos para expandir o contraer los elementos de la estructura de árbol.

    Para ejecutar un mandato desde la GUI: resalte el nodo Host en el árbol de la GUI y seleccione Enviar mandato.... en el menú emergente Host. En el campo de entrada de mandatos, escriba el mandato que desea ejecutar, por ejemplo: executor report. Aparecerán en la ventana proporcionada los resultados y el historial de los mandatos ejecutados en la sesión actual.

    En la parte derecha del panel se muestran pestañas que indican el estado del elemento seleccionado actualmente.

    Para acceder a la Ayuda, pulse el signo de interrogación (?) situado en la esquina superior derecha de la ventana de Load Balancer.


    Apéndice B. Sintaxis de la regla de contenido (patrón)

    En este apéndice se describe cómo utilizar la sintaxis de la regla de contenido (patrón) para el componente CBR y el método de reenvío CBR del componente Dispatcher, junto con los escenarios y ejemplos de su uso.


    Sintaxis de la regla de contenido (patrón):

    Aplicable sólo si se ha seleccionado "contenido" para el tipo de regla.

    Entre la sintaxis de patrón que desea utilizar, con las siguientes restricciones

    Palabras clave reservadas

    Las palabras claves reservadas siempre van seguidas de un signo igual "=".

    Method
    Método HTTP de la petición, por ejemplo GET, POST, etc

    URI
    vía de acceso de la petición URL (sensible a las mayúsculas/minúsculas)

    Version
    versión específica de la petición, HTTP/1.0 o HTTP/1.1

    Host
    valor de la cabecera host: (no es sensible a las mayúsculas/minúsculas)
    Nota:
    Opcional en los protocolos HTTP/1.0

    <key>
    cualquier nombre de cabecera HTTP válido que Dispatcher pueda buscar. Ejemplos de cabeceras HTTP son User-Agent, Connection, Referer, etc.

    Un valor con destino http://www.empresa.com/path/webpage.htm podría mostrar los valores siguientes:

    Method=GET
    URI=/path/webpage.htm
    Version=HTTP/1.1
    Host=www.empresa.com
    Connection=Keep-Alive
    Referer=http://www.empresa.com/path/parentwebpage.htm
    
    Nota:
    El shell del sistema operativo puede interpretarlos como caracteres especiales, como "&", y convertirlos en texto alternativo antes de que cbrcontrol los evalúe. Si indica el mandato desde dscontrol, cbrcontrol o desde un archivo de configuración, utilice comillas (" ") antes y después de los caracteres especiales.

    Por ejemplo, el siguiente mandato sólo es válido cuando se utiliza el indicador cbrcontrol>> o desde un archivo de configuración.

    rule add 10.1.203.4:80:cbr_prod_rule_ek type content
      pattern "uri=/nipoek/*"
    

    Cuando se utilizan caracteres especiales, para que este mismo mandato funcione en el indicador del sistema operativo, debe colocar el mandato completo entre comillas:

    cbrcontrol "rule add 10.1.203.4:80:cbr_prod_rule_ek type content
      pattern uri=/nipoek/*"
    

    Si no se utilizan las comillas, alguna parte del patrón puede truncarse cuando la regla se guarda en CBR.

    A continuación se muestra una recopilación de posibles casos y ejemplos para el uso de sintaxis de patrón

    Caso de ejemplo 1:

    La configuración de un nombre de clúster incluye un conjunto de servidores Web para el contenido HTML estándar, otro conjunto para servidores Web con WebSphere Application Server para peticiones de servlet, otro conjunto de servidores Lotus(R) Notes(R) para archivos NSF, etc. Para distinguir entre estas páginas solicitadas es necesario tener acceso al cliente. También es necesario enviarlas a los servidores adecuados. Las reglas de coincidencia de patrones de contenido proporcionan la separación necesaria para llevar a cabo estas tareas. Para que la separación de las peticiones necesaria se produzca automáticamente, se configura una serie de reglas. Por ejemplo, los siguientes mandatos realizan las tres separaciones antes mencionadas:

    >>rule add cluster1:80:servlets type content pattern "uri=*/servlet/*" priority 1
    >>rule uses cluster1:80:servlets server1+server2
    
    >>rule add cluster1:80:notes type content pattern "uri=*.nsf*" priority 2
    >>rule uses cluster1:80:notes server3+server4
    
    >>rule add cluster1:80:regular type true priority 3
    >>rule uses cluster1:80:regular server5+server6
    

    Si una petición para un archivo NSF llega a Load Balancer, primero la examina la regla de servlets, pero no coincide. A continuación, la petición la examina la regla de notes y devuelve una coincidencia. La carga del cliente está equilibrada entre server3 y server4.

    Caso de ejemplo 2

    Otro ejemplo común es cuando el sitio Web principal controla varios grupos internos distintos. Por ejemplo, www.empresa.com/software incluye un conjunto de servidores y un contenido distinto de la división www.empresa.com/hardware. Puesto que las peticiones están basadas en el clúster de www.empresa.com raíz, las reglas de contenido tienen que encontrar las diferencias de URI y completar el equilibrio de carga. La regla del caso de ejemplo se parece a la siguiente:

    >>rule add cluster1:80:div1 type content pattern "uri=/software/*" priority 1
    >>rule uses cluster1:80:div1 server1+server2
    
    >>rule add cluster1:80:div2 type content pattern "uri=/hardware/*" priority 2
    >>rule uses cluster1:80:div2 server3+server4
    

    Caso de ejemplo 3

    Determinadas combinaciones son susceptibles al orden en el que se realiza la búsqueda en las reglas. Por ejemplo, en el caso de ejemplo 2, los clientes se separaron en función de un directorio de su vía de acceso de peticiones; sin embargo, el directorio de destino puede aparecer en varios niveles de la vía de acceso e indicar cosas distintas dependiendo del lugar en que se encuentren. Por ejemplo, www.empresa.com/pcs/fixes/software es un destino distinto de www.empresa.com/mainframe/fixes/software. Las reglas deben definirse de forma que tengan prevista esta posibilidad y no identifique demasiados casos a la vez. Por ejemplo, la prueba "uri=*/software/*" es una búsqueda con comodín demasiado amplia en este caso. Pueden estructurarse reglas alternativas de la siguiente forma:

    Una búsqueda de combinación puede limitarla:

    >>rule add cluster1:80:pcs type content pattern "(uri=/pcs/*)&(uri=*/software/*)"
    >>rule uses cluster 1:80:pcs server1
    

    En los casos en los que no haya combinaciones, el orden pasa a ser importante:

    >>rule add cluster1:80:pc1 type content pattern "uri=/pcs/*"
    >>rule uses cluster1:80:pc1 server2
    

    La segunda regla detecta cuando "pcs" aparece en lugares de directorios posteriores en lugar del primero.

    >>rule add cluster1:80:pc2 type content pattern "uri=/*/pcs/*"
    >>rule uses cluster1:80:pc2 server3
    

    En casi cada caso, desea completar las reglas con una regla siempre cierta predeterminada para identificar todo lo que no puedan detectar otras reglas. Esto también puede ser un servidor "Lo sentimos, el sitio está inactivo actualmente, inténtelo más adelante" para los casos en los que los demás servidores no pueden aceptar la petición de este cliente.

    >>rule add cluster1:80:sorry type true priority 100
    >>rule uses cluster1:80:sorry server5
    

    Apéndice C. Archivos de configuración de ejemplo

    Este apéndice contiene archivos de configuración de ejemplo para el componente Dispatcher de Load Balancer.


    Archivos de configuración de ejemplo de Load Balancer

    Los archivos de ejemplo se ubican en el directorio ...ibm/edge/lb/servers/samples/.

    Archivo de configuración de Dispatcher -- sistemas AIX, Linux y Solaris

    #!/bin/bash
    #
    # configuration.sample - Archivo de configuración de ejemplo para el
    componente Dispatcher
    #
    #
    # Asegúrese de ejecutar este script como usuario root.
    #
    # iam=`whoami`
     
    # if [ "$iam" != "root" ]if [ "$iam" != "root" ]
    #  then 
    #  echo "Debe iniciar la sesión como root para ejecutar este script"
    #   exit 2
    # fi 
     
    #
    # Primero, inicie el servidor
    #
    # dsserver start
    # sleep 5
     
    #
    # Después inicie el ejecutor
    #
    # dscontrol executor start
     
    #
    #  Dispatcher puede eliminarse en cualquier momento con los 
    # mandatos "dscontrol executor stop" y "dsserver stop" para 
    # detener respectivamente el ejecutor y servidor antes de eliminar 
    # el software de Dispatcher.
    #
    # En el siguiente paso de la configuración de Dispatcher se establecerá la 
    # NFA (dirección de no reenvío) y las direcciones del clúster.
    #
    # La NFA se usa para acceder de forma remota a la máquina Dispatcher 
    # para fines de administración o configuración. Esta 
    # dirección es necesaria puesto que Dispatcher enviará paquetes 
    # a las direcciones de clúster.
    # 
    # La dirección de clúster es el nombre de host (o dirección IP) al 
    # que se conectarán los clientes remotos.
    #
    # En todo este archivo puede utilizar los nombres de host y 
    # las direcciones IP de manera intercambiable.
    #
     
    # NFA=hostname.domain.name
    # CLUSTER=www.suempresa.com
     
    # echo "Cargando la dirección de no reenvío"
    # dscontrol executor set nfa $NFA
     
    #
    #  En el siguiente paso de la configuración de Dispatcher se creará 
    # un clúster. Dispatcher direccionará las peticiones enviadas a 
    # la dirección del clúster a las correspondientes máquinas servidor
    # definidas para dicho clúster. Puede configurar y atender a 
    # varias direcciones de clúster con Dispatcher. 
     
    # Emplee una configuración parecida para CLUSTER2, CLUSTER3, etc.
    #
     
    # echo "Cargando primero la dirección de clúster"
    # dscontrol cluster add $CLUSTER
     
    #
    # Ahora, tenemos que definir los puertos que usará este clúster. Todas 
    # las peticiones recibidas por Dispatcher en un puerto definido se 
    # reenviarán al correspondiente puerto de una de las 
    # máquinas servidor.
    #
     
    # echo "Creando puertos para clúster: $CLUSTER"
     
    # dscontrol port add $CLUSTER:20+21+80
     
    #
    # En el último paso se añadirá cada una de las máquinas servidor a los 
    # puertos de este clúster.
    # De nuevo, puede usar el nombre de host o la dirección IP 
    # de las máquinas servidor.
    #
     
    # SERVER1=server1name.domain.name
    # SERVER2=server2name.domain.name 
    # SERVER3=server3name.domain.name
     
    # echo "Añadiendo máquinas servidor"
    # dscontrol server add $CLUSTER:20+21+80:
    # $SERVER1+$SERVER2+$SERVER3
     
    #
    #  Ahora empezará el equilibrio de carga de los componentes de 
    # Dispatcher. El principal componente del equilibrio de carga se denomina 
    # gestor y el segundo componente del equilibrio de carga son los 
    # asesores. Si el gestor y los asesores no están ejecutándose, 
    # Dispatcher envía peticiones de forma de turno rotativo. Una vez que 
    # se inicia el gestor, se emplea la ponderación de decisiones en base al 
    # número de conexiones nuevas y activas, y las peticiones entrantes 
    # se envían al mejor servidor. Los asesores ofrecen al 
    # gestor una mejor comprensión de la capacidad de los servidores para atender 
    # peticiones así como detectar si un servidor está activo. Si
    # un asesor detecta que un servidor está inactivo, se marcará como inactivo 
    # (siempre que las proporciones del gestor se hayan establecido 
    # de forma que incluyan la entrada del asesor) y no se direccionarán
    # más peticiones al servidor.
     
    #  En el último paso de la configuración de los componentes del equilibrio de carga 
    # se establecerán las proporciones del gestor. El gestor actualiza el 
    # peso de cada uno de los servidores basándose en cuatro políticas:
    #   1. El número de conexiones activas en cada servidor.
    #   2. El número de nuevas conexiones en cada servidor.
    #   3. La entrada de datos desde los asesores.
    #   4. La entrada de datos desde el asesor del nivel del sistema.
    # La suma de estas proporciones debe ser 100. Como ejemplo, si se establecen 
    # las proporciones del gestor en
    #    dscontrol manager proportions 48 48 0 0
    # otorgará a las conexiones activas y nuevas el 48% de entrada en la 
    # ponderación de decisiones, los asesores contribuirán un 4% y 
    # no se tendrá en cuenta la entrada del sistema.
    #
    # NOTA: de manera predeterminada, las proporciones del gestor están establecidas en 50 50 0 0
    #
     
    # echo "Iniciando el gestor..."
    # dscontrol manager start
     
    # echo "Iniciando el asesor FTP en puerto 21 ..."
    # dscontrol advisor start ftp 21
    # echo "Iniciando el asesor HTTP en puerto 80 ..."
    # dscontrol advisor start http 80
    # echo "Iniciando el asesor Telnet en puerto 23 ..."
    # dscontrol advisor start telnet 23
    # echo "Iniciando el asesor SMTP en puerto 25 ..."
    # dscontrol advisor start smtp 25
    # echo "Iniciando el asesor POP3 en puerto 110 ..."
    # dscontrol advisor start pop3 110
    # echo "Iniciando el asesor NNTP en puerto 119 ..."
    # dscontrol advisor start nntp 119
    # echo "Iniciando el asesor SSL en puerto 443 ..."
    # dscontrol advisor start ssl 443
    #
     
    # echo "Definiendo las proporciones del gestor..."
    # dscontrol manager proportions 58 40 2 0
     
    #
    # El último paso de la configuración de la máquina Dispatcher es crear un 
    # alias para la tarjeta de interfaz de red (NIC).
    #
    # NOTA: NO utilice este mandato en un entorno de alta 
    # disponibilidad. Los scripts go* configurarán la NIC y 
    # el bucle de retorno según sea necesario.
    # dscontrol executor configure $CLUSTER
     
    #  Si la dirección de clúster está en una NIC o subred distinta 
    de la de NFA, utilice el siguiente formato para el mandato cluster 
    configure.
    #  dscontrol executor configure $CLUSTER tr0 0xfffff800
    # donde tr0 es la NIC (tr1 para la segunda tarjeta token ring, en0 
    # para la primera tarjeta ethernet) y 0xfffff800 es una 
    # máscara de subred válida para el sitio.
    #
     
    #
    # Los siguientes mandatos se establecen en los valores predeterminados. 
    # Utilice estos mandatos como guía para cambiar los valores predeterminados.
    #  dscontrol manager loglevel    1
    #  dscontrol manager logsize     1048576
    #  dscontrol manager sensitivity 5
    #  dscontrol manager interval    2
    #  dscontrol manager refresh     2
    #
    #  dscontrol advisor interval ftp  21  5
    #  dscontrol advisor loglevel ftp  21  1
    #  dscontrol advisor logsize  ftp  21  1048576
    #  dscontrol advisor timeout  ftp  21  unlimited
    #  dscontrol advisor interval telnet 23 5
    #  dscontrol advisor loglevel telnet 23 1
    #  dscontrol advisor logsize  telnet 23 1048576
    #  dscontrol advisor timeout  telnet 23 unlimited
    #  dscontrol advisor interval smtp 25  5
    #  dscontrol advisor loglevel smtp 25  1
    #  dscontrol advisor logsize  smtp 25  1048576
    #  dscontrol advisor timeout  smtp 25  unlimited
    #  dscontrol advisor interval http 80  5
    #  dscontrol advisor loglevel http 80  1
    #  dscontrol advisor logsize  http 80  1048576
    #  dscontrol advisor timeout  http 80  unlimited
    #  dscontrol advisor interval pop3 110 5 
    #  dscontrol advisor loglevel pop3 110 1
    #  dscontrol advisor logsize  pop3 110 1048576
    #  dscontrol advisor timeout  pop3 110 unlimited
    #  dscontrol advisor interval nntp 119 5
    #  dscontrol advisor loglevel nntp 119 1
    #  dscontrol advisor logsize  nntp 119 1048576
    #  dscontrol advisor timeout  nntp 119 unlimited
    #  dscontrol advisor interval ssl  443 5
    #  dscontrol advisor loglevel ssl  443 1
    #  dscontrol advisor logsize  ssl  443 1048576
    #  dscontrol advisor timeout  ssl  443 unlimited
    #
     
    

    Archivo de configuración de Dispatcher -- sistemas Windows

    A continuación se muestra un archivo de configuración de Load Balancer de ejemplo denominado configuration.cmd.sample para puede utilizarse con Windows.

    @echo off
    rem configuration.cmd.sample - Archivo de configuración de ejemplo para el
    rem componente Dispatcher.
    rem
     
    rem dsserver debe iniciarse a través de Servicios
     
    rem
     
    rem
    rem Después inicie el ejecutor
    rem
    rem call dscontrol executor start
     
    rem
     
    rem En el siguiente paso de la configuración de Dispatcher se establecerá la
    rem NFA (dirección de no reenvío) y las direcciones 
    rem del clúster.
    rem
     
    rem La NFA se usa para acceder de forma remota a la máquina 
    rem Dispatcher para fines de configuración de administración. Esta 
    rem dirección es necesaria puesto que Dispatcher enviará 
    rem paquetes a las direcciones de clúster.
     
    rem
    rem La dirección de clúster es el nombre de host (o dirección IP) al 
    rem que se conectarán los clientes remotos.
    rem
     
    rem En todo este archivo puede utilizar los nombres de host y 
    rem las direcciones IP de manera intercambiable. 
    rem  NFA=[dirección de no reenvío]
    rem CLUSTER=[el nombre de clúster]
    rem
     
    rem set NFA=hostname.domain.name
    rem set CLUSTER=www.suempresa.com
     
    rem echo "Cargando la dirección de no reenvío"
    rem call dscontrol executor set nfa %NFA%
     
    rem
    rem Los siguientes mandatos se establecen en los valores predeterminados 
    rem Utilice estos mandatos para cambiar los valores predeterminados
     
    rem  call dscontrol executor set fintimeout 30
    rem
    rem En el siguiente paso de la configuración de Dispatcher se creará 
    rem un clúster. Dispatcher direccionará las peticiones enviadas a 
    rem la dirección del clúster a las correspondientes máquinas servidor 
    rem definidas para dicho clúster. Puede configurar y atender a
    rem varias direcciones de clúster con Dispatcher.
    rem Emplee una configuración parecida para CLUSTER2, CLUSTER3, etc.
    rem
     
    rem echo "Cargando primero la dirección de clúster"
    rem call dscontrol cluster add %CLUSTER%
     
    rem
    rem Ahora, tenemos que definir los puertos que usará este clúster. Todas 
    rem las peticiones recibidas por Dispatcher en un puerto definido se 
    rem reenviará al correspondiente
    rem puerto de una de las máquinas servidor.
    rem
     
    rem echo "Creando puertos para clúster: %CLUSTER%"
    rem call dscontrol port add %CLUSTER%:20+21+80
     
    rem
    rem En el último paso se añadirá cada una de las máquinas servidor a 
    rem los puertos de este clúster. De nuevo, puede utilizar el 
    rem nombre de host o la dirección IP de las máquinas servidor.
    rem
     
    rem set SERVER1=server1name.domain.name
    rem set SERVER2=server2name.domain.name
    rem set SERVER3=server3name.domain.name
     
    rem echo "Añadiendo máquinas servidor"
    rem call dscontrol server add %CLUSTER%:20+21+80:
    rem %SERVER1%+%SERVER2%+%SERVER3%
     
    rem
    rem  Ahora empezará el equilibrio de carga de los componentes de 
    rem Dispatcher. El principal componente del equilibrio de carga se denomina 
    rem gestor y el segundo componente del equilibrio de carga son los 
    rem asesores. Si el gestor y los asesores no están
    rem ejecutándose, Dispatcher envía peticiones en forma de turno rotativo. 
    rem Una vez que se inicia el gestor, se emplea la ponderación de decisiones 
    rem en base al número de conexiones nuevas y activas 
    rem y las peticiones entrantes se envían al mejor
    rem servidor. Los asesores ofrecen al gestor una mejor compresión 
    rem de la capacidad de los servidores para atender peticiones así como 
    rem detectar si un servidor está activo. Si un asesor detecta 
    rem que un servidor está inactivo, se marcará como inactivo (siempre que las
    rem proporciones del gestor se hayan establecido de forma que incluyan 
    rem la entrada del asesor) y no se direccionarán más peticiones al servidor.
    rem En el último paso de la configuración de los componentes del equilibrio 
    rem de carga se establecerán las proporciones del gestor. El 
    rem gestor actualiza el peso de cada uno de los servidores basándose 
    rem en cuatro políticas:
     
    rem   1.  El número de conexiones activas en cada servidor
    rem   2.  El número de nuevas conexiones en cada servidor
    rem   3.  La entrada de datos desde los asesores.
    rem   4.  La entrada de datos desde el asesor del nivel del sistema.
    rem
    rem  La suma de estas proporciones debe ser 100. Como ejemplo, si se 
    rem  establecen las proporciones de clúster mediante
    rem      dscontrol cluster set <cluster> proportions 48 48 4 0
    rem  otorgará a las conexiones activas y nuevas el 48% de entrada en la 
    rem  ponderación de decisiones, el asesor contribuirá un 4% y 
    rem  no se tendrá en cuenta la entrada del sistema.
    rem
    rem NOTA: de manera predeterminada, las proporciones del gestor están establecidas en 
    rem 50 50 0 0
     
    rem echo "Iniciando el gestor..."
    rem call dscontrol manager start
     
    rem echo "Iniciando el asesor FTP en puerto 21 ..."
    rem call dscontrol advisor start ftp 21
    rem echo "Iniciando el asesor HTTP en puerto 80 ..."
    rem call dscontrol advisor start http 80
    rem echo "Iniciando el asesor Telnet en puerto 23 ..."
    rem call dscontrol advisor start telnet 23
    rem echo "Iniciando el asesor SMTP en puerto 25 ..."
    rem call dscontrol advisor start smtp 25
    rem echo "Iniciando el asesor POP3 en puerto 110 ..."
    rem call dscontrol advisor start pop3 110
    rem echo "Iniciando el asesor NNTP en puerto 119 ..."
    rem call dscontrol advisor start nntp 119
    rem echo "Iniciando el asesor SSL en puerto 443 ..."
    rem call dscontrol advisor start ssl 443
    rem
     
    rem echo "Definiendo las proporciones del clúster..."
    rem call dscontrol cluster set %CLUSTER% proportions 58 40 2 0
     
    rem
    rem El último paso de la configuración de la máquina Dispatcher es
    rem crear un alias para la tarjeta de interfaz de red (NIC).
    rem
    rem NOTA: NO utilice este mandato en un entorno de alta 
    rem disponibilidad. Los scripts go* configurarán la NIC y 
    rem el bucle de retorno según sea necesario.
    rem
    rem dscontrol executor configure %CLUSTER%
     
    rem  Si la dirección de clúster está en una NIC o subred distinta 
    rem  de la de NFA, utilice el siguiente formato para el mandato cluster 
    rem  configure.
    rem  dscontrol executor configure %CLUSTER% tr0 0xfffff800
    rem  donde tr0 es la NIC (tr1 para la segunda tarjeta token ring,
    rem  en0 para la primera tarjeta ethernet) y 0xfffff800 es 
    rem  una máscara de subred válida para el sitio.
    rem
     
    rem
    rem Los siguientes mandatos se establecen en los valores predeterminados.
    rem Utilice estos mandatos como orientación para cambiar los valores predeterminados.
    rem call dscontrol manager loglevel    1
    rem call dscontrol manager logsize     1048576
    rem call dscontrol manager sensitivity 5
    rem call dscontrol manager interval    2
    rem call dscontrol manager refresh     2
    rem
    rem call dscontrol advisor interval ftp  21  5
    rem call dscontrol advisor loglevel ftp  21  1
    rem call dscontrol advisor logsize  ftp  21  1048576
    rem call dscontrol advisor timeout  ftp  21  unlimited
    rem call dscontrol advisor interval telnet 23 5
    rem call dscontrol advisor loglevel telnet 23 1
    rem call dscontrol advisor logsize  telnet 23 1048576
    rem call dscontrol advisor timeout  telnet 23 unlimited
    rem call dscontrol advisor interval smtp 25  5
    rem call dscontrol advisor loglevel smtp 25  1
    rem call dscontrol advisor logsize  smtp 25  1048576
    rem call dscontrol advisor timeout  smtp 25  unlimited
    rem call dscontrol advisor interval http 80  5
    rem call dscontrol advisor loglevel http 80  1
    rem call dscontrol advisor logsize  http 80  1048576
    rem call dscontrol advisor timeout  http 80  unlimited
    rem call dscontrol advisor interval pop3 110 5
    rem call dscontrol advisor loglevel pop3 110 1
    rem call dscontrol advisor logsize  pop3 110 1048576
    rem call dscontrol advisor timeout  pop3 110 unlimited
    rem call dscontrol advisor interval nntp 119 5
    rem call dscontrol advisor loglevel nntp 119 1
    rem call dscontrol advisor logsize  nntp 119 1048576
    rem call dscontrol advisor timeout  nntp 119 unlimited
    rem call dscontrol advisor interval ssl  443 5
    rem call dscontrol advisor loglevel ssl  443 1
    rem call dscontrol advisor logsize  ssl  443 1048576
    rem call dscontrol advisor timeout  ssl  443 unlimited
    rem
     
    

    Asesor de ejemplo

    A continuación se muestra un archivo de asesor de ejemplo denominado ADV_sample.

    /**
     * ADV_sample:  Asesor HTTP de Load Balancer
     * 
     * 
     * Esta clase define un asesor personalizado de ejemplo para Load Balancer. Como
     * todos los asesores, este asesor personalizado amplía la función de la base del
     * asesor, denominada ADV_Base. Es la base del asesor que en realidad realiza la
     * mayoría de las funciones del asesor, como informar de las cargas a Load Balancer
     * para su uso en el algoritmo de peso de Load Balancer. La base del asesor también
     * realiza operaciones de cierre y conexión de sockets, y proporciona métodos 
     * de envío y recepción para que el asesor los emplee. El asesor sólo se utiliza
     * para enviar y recibir datos del puerto del servidor que se está asesorando.
     * Se calcula la duración de los métodos TCP incluidos en la base del asesor para 
     * calcular la carga. Un distintivo interno del constructor de ADV_base escribe 
     * sobre la carga existente la nueva carga devuelta desde el asesor, si se desea.
     *
     * Nota: en función de un valor fijado en el constructor, la base del asesor
     * suministra la carga al algoritmo de peso a intervalos especificados. Si el
     * asesor real no se ha completado y puede devolver una carga válida, la base del
     * asesor utiliza la carga anterior.
     * 
     * DENOMINACIÓN 
     * 
     * El convenio de denominación es el siguiente:
     *
     *  - El archivo debe estar en el siguiente directorio de Load Balancer:
     * 
     *    lb/servers/lib/CustomAdvisors/ (lb\servers\lib\CustomAdvisors en Windows)
     *
     * - El nombre del asesor debe ir precedido de "ADV_". Sin embargo, el asesor 
     *    sólo puede empezar con el nombre; por ejemplo, el asesor "ADV_sample"
     *    puede empezar con "sample".
     *
     * - El nombre del asesor debe indicarse en minúsculas.
     *
     *  Por lo tanto, teniendo presente estas reglas, este ejemplo se denomina:
     * 
     *           <directorio base>/lib/CustomAdvisors/ADV_sample.class
     *
     *
     
    
     * Los asesores, al igual que el resto de Load Balancer, deben compilarse con la 
     * versión prereq de Java. Para garantizar el acceso a las clases de Load Balancer,
     * asegúrese de que el archivo ibmlb.jar (que se encuentra en el directorio lib
     * del directorio base) está incluido en la CLASSPATH del sistema.
     *
     * Métodos proporcionados por ADV_Base:
     * 
     * - ADV_Base (Constructor):
     *
     *   - Parámetros
     *     - String sName = Nombre del asesor
     *     - String sVersion = Versión del asesor
     *     - int iDefaultPort = Número de puerto predeterminado sobre el que asesorar
     *     - int iInterval = Intervalo sobre el que asesorar sobre los servidores
     *     - String sDefaultName = No se utiliza.  Debe pasarse como "".
     *     - boolean replace = True - sustituye el valor de carga que calcula
     *                                la base del asesor
     *                         False - añade el valor de carga que calcula
     *                                 la base del asesor
     *   - Retorno
     *     - Los constructores no tienen valores de retorno.
     *
     * Puesto que la base del asesor se basa en hebras, tiene otros métodos
     * disponibles que un asesor puede usar. Se puede hacer referencia a estos métodos
     * con el parámetro CALLER pasado en getLoad().
     *
     * Estos métodos son los siguientes:
     * 
     * - send - Envía un paquete de información en la conexión de socket establecida
     *           al servidor del puerto especificado.
     *   - Parámetros
     *     - String sDataString - Los datos que deben enviar en el formato de serie
     *   - Retorno
     *     - int RC - Si los datos se han enviado satisfactoriamente; cero indica que
     *                 los datos se han enviado; un entero negativo indica un error.
     * 
     * - receive - Recibe información de la conexión del socket.
     *   - Parámetros
     *     - StringBuffer sbDataBuffer - Los datos recibidos durante la llamada de
     *                                   recepción
     *   - Retorno
     *     - int RC - Si los datos se recibieron satisfactoriamente; cero
     *                indica que los datos se enviaron; un entero negativo indica
     *                un error.
     *
     * Si la función que proporciona la base del asesor no es suficiente, 
     * puede crear la función adecuada dentro del asesor y
     * se ignorarán los métodos que proporciona la base del asesor. 
     *
     * Una pregunta importante en relación a la carga devuelta es si se debe aplicar 
     * si la carga que se genera dentro de la base del asesor, 
     * o se debe sustituir; hay instancias válidas para las dos situaciones.
     * 
     * Este ejemplo es fundamentalmente el asesor HTTP de Load Balancer. Funciona de una
     * forma muy simple: se emite una petición de envío: una petición de cabecera HTTP.
     * Una vez que se recibe la respuesta, el método getLoad finaliza, indicando a la
     * base del asesor que detenga la medición del tiempo de la petición. Entonces el
     * método finaliza. La información devuelta no se analiza; la carga se basa en el
     * tiempo necesario en realizar las operaciones de envío y recepción.
     */
     
    package CustomAdvisors;
    import com.ibm.internet.nd.advisors.*;
     
    public class ADV_sample extends ADV_Base implements ADV_MethodInterface
    {
      String COPYRIGHT = 
                "(C) Copyright IBM Corporation 1997, All Rights Reserved.\n";
     
      static final String  ADV_NAME              = "Sample";
      static final int     ADV_DEF_ADV_ON_PORT   = 80;
      static final int     ADV_DEF_INTERVAL      = 7;
     
      // Nota: la mayoría de los protocolos de servidor requieren un retorno de
      //       carro ("\r") y un salto de línea ("\n") al final de los mensajes.
      //       Si es así, inclúyalos en la serie aquí.
      static final String  ADV_SEND_REQUEST      = 
        "HEAD / HTTP/1.0\r\nAccept: */*\r\nUser-Agent: " +
        "IBM_Load_Balancer_HTTP_Advisor\r\n\r\n";
     
      /**
       * Constructor.
       *
       * Parámetros: Ninguno; pero el constructor de ADV_Base tiene varios parámetros 
       *             que deben pasarse.
       *
       */
      public ADV_sample()
      {
        super( ADV_NAME,
           "2.0.0.0-03.27.98",
               ADV_DEF_ADV_ON_PORT,
               ADV_DEF_INTERVAL,
               "",     // no se utiliza
               false);
        super.setAdvisor( this );
      }
     
     
      /**
       * ADV_AdvisorInitialize
       *
       * Se inicia cualquier inicialización específica del asesor que debe tener lugar
       * después de la base del asesor. Este método sólo se invoca una vez y 
       * normalmente no se utiliza.
       */
      public void ADV_AdvisorInitialize()
      {
        return;
      }
     
     
      /**
       * getLoad()
       *
       * La base del asesor llama a este método para completar la operación del
       * asesor, basándose en detalles específicos del protocolo. En este ejemplo del
       * asesor, sólo es necesario emitir un sólo envío y recepción; si es necesario
       * usa una lógica más compleja, se pueden emitir varios envíos y recepciones.
       * Por ejemplo, una respuesta puede recibirse y analizarse. Basándose en la 
       * información que se obtiene, se podría emitir otro envío y recepción.
       *
       * Parámetros:
       * 
       * - iConnectTime - La carga actual relativa al intervalo de tiempo que ha
       *                  tardado en llevarse a cabo la conexión con el servidor en
       *                  el puerto especificado.
       *
       * - caller - Una referencia a la clase base del asesor donde los métodos 
       *            que proporciona Load Balancer van a realizar peticiones TCP,
       *            principalmente envíos y recepciones.
       *
       * Resultados:
       *
       * - La carga, un valor expresado en milisegundos, que puede añadirse a la
       *   carga existente o que puede sustituir a la misma, según lo 
       *   determina el distintivo "replace" del constructor.
       *
       *   Cuánto mayor sea la carga, más tiempo se necesitará para que el servidor 
       *   responda; por lo tanto, menor será el peso dentro de Load Balancer.
       *
       *   Si el valor es negativo, se da por supuesto un error. Un error de un asesor 
       *   indica que el servidor al que el asesor intenta llegar no es accesible y
       *   que se ha identificado como inactivo. Load Balancer no intentará equilibrar la
       *   carga en un servidor que está inactivo. Load Balancer reanudará el equilibrio 
       *   de carga en el servidor cuando se reciba un valor positivo.
       *
       */
      public int getLoad(int iConnectTime, ADV_Thread caller)
      {
        int iRc;
        int iLoad = ADV_HOST_INACCESSIBLE;  // -1
     
        // Enviar petición TCP
        iRc = caller.send(ADV_SEND_REQUEST);
        if (iRc >= 0)
        {
          // Realizar una recepción
          StringBuffer sbReceiveData = new StringBuffer("");
          iRc = caller.receive(sbReceiveData);
     
          /**
          *  En una modalidad de asesor (el distintivo "replace" es false), la carga
          *  devuelta es 0 o 1, lo que indica que el servidor está activo o inactivo. 
          *  Si la recepción es satisfactoria, se devuelve una carga de cero, lo
          *  que indica que se va a usar la carga incluida dentro del asesor base.
          * 
          *  De lo contrario (el distintivo "replace" es true), devuelva el valor de
          *  carga que desee.
          */
     
        if (iRc >= 0)
          {
            iLoad = 0;
          }
        }
        return iLoad;
      }
     
    } // Final de - ADV_sample
     
    

    Apéndice D. Ejemplo de configuración de alta disponibilidad de 2 niveles con Dispatcher, CBR y Caching Proxy

    En este apéndice se describe cómo establecer una configuración de alta disponibilidad de 2 niveles combinando las posibilidades de dos componentes de Load Balancer (el componente Dispatcher y el componente CBR) junto con Caching Proxy.


    Configuración de la máquina servidor

    Figura 46. Ejemplo de configuración de alta disponibilidad de 2 niveles con Dispatcher, CBR y Caching Proxy

    Alta disponibilidad con Dispatcher, CBR y Caching Proxy

    A continuación se detalla la configuración de máquina servidor para la Figura 46:

    En la Figura 46 se muestra una representación básica de varios servidores (EdgeServer1, EdgeServer2, EdgeServer3) que equilibran la carga entre varios servidores Web finales. El componente CBR utiliza Caching Proxy para reenviar peticiones según el contenido del URL a los servidores Web finales. El componente Dispatcher su utiliza para equilibrar la carga de componentes CBR entre los servidores EdgeServers. Se utiliza la función de alta disponibilidad del componente Dispatcher para asegurarse de que continúen las peticiones a los servidores finales aún cuando la máquina primaria de alta disponibilidad (EdgeServer1) diera un error en algún momento.

    Instrucciones básicas de configuración:

    Nota:
    1. Para evitar que se muestren las direcciones del servidor final en el URL en un cliente, tendrá que establecer la directiva ReversePass para cada dirección de servidor final en el archivo de configuración de Caching Proxy.
    2. Para asegurarse de que se utiliza eficazmente la colocación en caché de la Web, establezca la directiva "Caching" en "ON"' y aumente el valor de la directiva "CacheMemory" al tamaño necesario en el archivo de configuración de Caching Proxy.
    3. Líneas de ejemplo a las que se hace referencia en las notas 1 a 2 (anteriores):
      Caching              ON
      CacheMemory          128000 K
      ReversePass /* http://websrvA.empresa.com/* http://www.empresa.com/*
      
    4. Recuerde poner un alias a la dirección del clúster en la tarjeta de interfaz de red para EdgeServer1 y un alias a la dirección del clúster en el dispositivo de bucle de retorno en los EdgeServers restantes.
    5. Si utiliza la plataforma Linux para los EdgeServers, quizá tenga que instalar un parche para el kernel Linux o utilizar una alternativa a definir un alias para el dispositivo de bucle de retorno. Para obtener más información, consulte el apartado Alternativas de alias de bucle de retorno de Linux cuando se utiliza el reenvío MAC de Load Balancer.
    6. Para CBR, no se debe utilizar la afinidad de puerto (tiempo de permanencia en memoria) cuando se utilizan reglas de contenido, de lo contrario, no se activarán dichas reglas mientras se procesan peticiones a los servidores Web finales.

    Archivos de configuración de ejemplo:

    Los archivos de configuración de ejemplo siguientes son similares a los archivos que se crean cuando se establece una configuración de Edge Components como se detalla en la Figura 46. Los archivos de configuración de ejemplo representan los archivos para los componentes Dispatcher y CBR de Load Balancer. En la configuración de ejemplo, se utiliza un solo adaptador Ethernet para cada una de las máquinas EdgeServer y todas las direcciones se representan dentro de una subred privada. Los archivos de configuración de ejemplo utilizan las siguientes direcciones IP para las máquinas especificadas:

    Archivo de configuración de ejemplo para el componente Dispatcher en EdgeServer primario de alta disponibilidad:

    dscontrol executor start
     
    dscontrol cluster add 192.168.1.11 primaryhost 192.168.1.10
     
    dscontrol port add 192.168.1.11:80
     
    dscontrol server add 192.168.1.11:80:edgeserver1 address 192.168.1.10
     
    dscontrol server add 192.168.1.11:80:edgeserver2 address 192.168.1.20
     
    dscontrol server add 192.168.1.11:80:edgeserver3 address 192.168.1.30
     
    dscontrol manager start manager.log 10004
     
    dscontrol highavailability heartbeat add 192.168.1.10 192.168.1.20
    dscontrol highavailability backup add primary auto 4567
     
     
    

    Archivo de configuración de ejemplo para el componente CBR en los EdgeServers:

    cbrcontrol set loglevel 1
    cbrcontrol executor start
     
    cbrcontrol cluster add 192.168.1.11
     
    cbrcontrol port add 192.168.1.11:80
     
    cbrcontrol server add 192.168.1.11:80:webserverA address 192.168.1.71
     
    cbrcontrol server add 192.168.1.11:80:webserverB address 192.168.1.72
     
    cbrcontrol server add 192.168.1.11:80:webserverC address 192.168.1.73
     
    cbrcontrol rule add 192.168.1.11:80:webA_rule type content 
      pattern (URI=*WSA*)|(URI=*wsA*) priority 21 
    cbrcontrol rule useserver 192.168.1.11:80:webA_rule webserverA
     
    cbrcontrol rule add 192.168.1.11:80:webB_rule type content 
      pattern (URI=/WS_B*) priority 22 
    cbrcontrol rule useserver 192.168.1.11:80:webB_rule webserverB
     
    cbrcontrol rule add 192.168.1.11:80:webC_rule type content 
      pattern URI=*webC* priority 23 
    cbrcontrol rule useserver 192.168.1.21:80:webC_rule webserverC
     
    

    Apéndice E. Avisos

    Esta información se ha desarrollado para productos y servicios proporcionados en los Estados Unidos.

    Es posible que IBM no ofrezca los productos, servicios o funciones que se tratan en este documento en otros países. Consulte el representante de IBM de su localidad para obtener información acerca de los productos y servicios que están disponibles actualmente en su localidad. Cualquier referencia que se haga a un producto, programa o servicio de IBM no implica que sólo se pueda utilizar dicho producto, programa o servicio de IBM. En su lugar, se puede utilizar cualquier producto, programa o servicio funcionalmente equivalente que no vulnere ningún derecho de propiedad intelectual de IBM. Sin embargo, es responsabilidad del usuario evaluar y verificar el funcionamiento de cualquier producto, programa o servicio que no sea de IBM.

    IBM puede tener patentes o aplicaciones pendientes de patente que conciernan al tema descrito en este documento. La posesión de este documento no le da ninguna licencia sobre estas patentes. Puede enviar preguntas acerca de licencias por escrito a:
    IBM Director of Licensing
    IBM Corporation
    500 Columbus Avenue
    Thornwood, NY 10594
    Estados Unidos

    Para preguntas acerca de licencias referentes a información de doble byte (DBCS), póngase en contacto con el Departamento de propiedad intelectual de IBM de su país o envíe sus preguntas por escrito a:
    IBM World Trade Asia Corporation
    Licensing
    2-31 Roppongi 3-chome, Minato-ku
    Tokyo 106, Japón

    El siguiente párrafo no se aplica al Reino Unido ni a ningún otro país donde estas disposiciones no coincidan con la legislación local:

    INTERNATIONAL BUSINESS MACHINES CORPORATION LE PROPORCIONA ESTE DOCUMENTO "TAL CUAL", SIN GARANTÍAS DE NINGÚN TIPO, NI EXPLÍCITAS NI IMPLÍCITAS, INCLUIDAS, AUNQUE SIN LIMITARSE A LAS MISMAS, LAS GARANTÍAS O CONDICIONES IMPLÍCITAS DE NO INFRACCIÓN, COMERCIALIZACIÓN O ADECUACIÓN A UN PROPÓSITO DETERMINADO. Algunas legislaciones no contemplan la exclusión de garantías, explícitas o implícitas en algunas transacciones, por lo que puede haber usuarios a los que no les afecte dicha regla.

    Esta publicación puede contener imprecisiones técnicas o errores tipográficos. Se realizan cambios periódicos en la información aquí contenida; estos cambios se incorporarán en nuevas ediciones o en el documento. IBM se reserva el derecho de realizar mejoras y/o cambios en los productos y/o programas descritos en esta publicación en cualquier momento sin previo aviso.

    Cualquier referencia en esta información a sitios Web que no son de IBM se proporciona solamente para su comodidad y no equivale de ninguna manera a una aprobación de esos sitios Web. El material de dichos sitios Web no forma parte del material correspondiente a este producto IBM y el uso de estos sitios Web se realiza bajo riesgo del usuario.

    IBM puede utilizar o distribuir cualquier información que el usuario le proporcione de la manera que considere adecuada sin incurrir en ninguna obligación con el usuario.

    Los usuarios autorizados de este programa que deseen tener información sobre éste con el propósito de posibilitar: (i) el intercambio de información entre programas creados independientemente y otros programas (incluyendo éste) y (ii) la utilización mutua de la información que se ha intercambiado, deben ponerse en contacto con:
    IBM Corporation
    Attn.: G7IA./503.
    P.O. Box 12195
    3039 Cornwallis Rd.
    Research Triangle Park, N.C. 27709-2195
    Estados Unidos

    Es posible que esta información esté disponible, sujeta a los términos y condiciones adecuados, y que en algunos casos incluya el pago de una tarifa.

    El programa con licencia descrito en este documento y todos los materiales con licencia disponibles para el mismo son proporcionados por IBM bajo los términos del acuerdo IBM International Program License Agreement o cualquier acuerdo equivalente entre nosotros.

    Los datos sobre rendimiento aquí contenidos se han determinado en un entorno controlado. Por tanto, los resultados obtenidos en otros entornos operativos pueden variar de forma significativa. Es posible que algunas medidas se hayan tomado en sistemas de nivel de desarrollo y no existe ninguna garantía de que dichas medidas se repitan en sistemas disponibles a nivel general. Además, es posible que algunas medidas se hayan estimado mediante extrapolación. Los resultados reales pueden variar. Los usuarios de este documento deben verificar los datos aplicables para su entorno específico.

    La información referente a productos que no son de IBM se ha obtenido de los suministradores de estos productos, sus anuncios publicados u otras fuentes disponibles para el público. IBM no ha probado estos productos y no puede confirmar la precisión del rendimiento, compatibilidad y otras afirmaciones relacionadas con productos que no son de IBM. Las preguntas acerca de las posibilidades de productos que no son de IBM deben dirigirse a los suministradores de estos productos.

    Todas las declaraciones referentes a acciones e intenciones futuras de IBM pueden cambiar o ser retiradas sin aviso previo y solamente representan objetivos.

    Esta información contiene ejemplos de datos e informes utilizados en operaciones comerciales diarias. Para ilustrarlos de la forma más completa posible, los ejemplos pueden incluir nombres de particulares, empresas, marcas y productos. Todos estos nombres son ficticios y cualquier parecido con nombres y direcciones utilizadas por una empresa de negocios real es mera coincidencia.

    Si consulta esta información en copia de software, muchas de las fotografías y las ilustraciones en color no aparecerán.


    Marcas registradas

    Los siguientes términos son marcas registradas o marcas comerciales de IBM Corporation en Estados Unidos y/o en otros países.

    AFS

    AIX

    DFS

    IBM

    iSeries(TM)

    NetView

    OS/2

    Redbooks(TM)

    RS/6000(R)

    SecureWay

    ViaVoice

    WebSphere

    zSeries(R)

    Java y todas las marcas registradas y logotipos basados en Java son marcas registradas de Sun Microsystems, Inc. en Estados Unidos y/o en otros países.

    Microsoft, Windows, Windows NT y el logotipo de Windows son marcas registradas de Microsoft Corporation en los Estados Unidos y/o en otros países.

    Intel (TM), Intel Inside (logotipos), MMX(TM) y Pentium(R) son marcas registradas de Intel Corporation en los Estados Unidos y/o en otros países.

    UNIX es una marca registrada de The Open Group en los Estados Unidos y en otros países.

    Linux es una marca registrada de Linus Torvalds en los Estados Unidos y en otros países.

    Otros nombres de empresas, productos o servicios pueden ser marcas registradas o marcas de servicio de terceros.


    Glosario

    A

    ACK
    Bit de control (acuse de recibo) que no ocupa ningún espacio de secuencia e indica que el campo de acuse de recibo de este segmento especifica que el siguiente número de secuencia de este segmento está esperando recibir, esto es, acusar recibo de, todos los números de secuencia anteriores.

    dirección
    Código exclusivo asignado a cada dispositivo o estación de trabajo conectado a una red. Una dirección IPv4 estándar es un campo de dirección de 32 bits que contiene dos partes. La primera parte es la dirección de red, la segunda el número del host.

    asesor
    Los asesores son una función de Load Balancer. Los asesores reúnen y analizan la información de retorno de los servidores individuales e informan la función de gestor.

    agente
    (1) En gestión de sistemas, usuario que, para una interacción determinada, ha asumido la función de un agente.
    (2) Entidad que representa uno o más objetos gestionados por medio de (a) la emisión de notificaciones relacionadas con objetos y (b) el manejo de peticiones de los gestores de operaciones de gestión para modificar o consultar los objetos.

    alias
    Nombre adicional asignado a un servidor. Un alias independiza al servidor del nombre de su host. El alias debe estar definido en el servidor de nombres de dominio.

    API
    Interfaz de programación de aplicaciones. Interfaz mediante la cual un programa de aplicación accede al sistema operativo o a otros servicios. Una API se define a nivel de código fuente y proporciona un nivel de abstracción entre la aplicación y el núcleo (u otros programas de utilidad privilegiados) para asegurar la portabilidad del código.

    B

    reserva
    En alta disponibilidad para el componente Dispatcher, la máquina asociada a la máquina primaria. Supervisa el estado de la máquina primaria y asume el control si es necesario. Consulte también alta disponibilidad, primaria.

    ancho de banda
    La diferencia entre las frecuencias superiores e inferiores de un canal de transmisión; la cantidad de datos que se envían a través de un circuito de comunicaciones dado por segundo.

    inicio del rango
    En el equilibrio de carga basado en reglas, un valor inferior especificado en una regla. El valor predeterminado depende del tipo de regla.

    registro cronológico en binario
    Permite que la información del servidor sea almacenada en archivos binarios y procesada a continuación para analizar la información del servidor recopilada a lo largo del tiempo.

    C

    Caching Proxy
    Servidor proxy de colocación en caché que puede ayudar a acelerar el tiempo de respuesta del usuario final a través de esquemas de gestión de caché altamente eficaces. El filtrado PICS flexible ayuda a los administradores de redes a acceder a información basada en Web en una ubicación central.

    CBR
    Content Based Routing de WTE. Un componente de Load Balancer. CBR funciona junto con Caching Proxy para realizar el equilibrio de carga de las peticiones entrantes, en base al contenido de las páginas Web utilizando tipos de reglas específicos, a servidores HTTP o HTTPS.

    cbrcontrol
    Proporciona la interfaz para el componente CBR (Content Based Router) de Load Balancer.

    cbrserver
    En CBR (Content Based Router), maneja las peticiones desde la línea de mandatos para el ejecutor, gestor y asesores.

    ccocontrol
    En Cisco CSS Controller, proporciona la interfaz con el Conmutador Cisco CSS.

    ccoserver
    En Cisco CSS Controller, maneja las peticiones desde la línea de mandatos para los consultores.

    CGI
    Common Gateway Interface. Estándar para el intercambio de información entre un servidor Web y un programa externo. El programa externo puede estar escrito en cualquier lenguaje soportado por el sistema operativo y ejecuta tareas que el servidor no realiza habitualmente, como el proceso de formularios.

    script CGI
    Programa CGI escrito en un lenguaje de scripts, como por ejemplo Perl o REXX, que utiliza Common Gateway Interface para ejecutar tareas que el servidor no realiza habitualmente, como el proceso de formularios.

    Cisco CSS Controller
    Un componente de IBM Load Balancer. Cisco CSS Controller utiliza la tecnología de Load Balancer para proporcionar información en tiempo real sobre el equilibrio de carga al Conmutador Cisco Content Services.

    Conmutador Cisco CSS
    Cualquiera de los conmutadores CSS 11000 de Cisco, utilizados para el reenvío de paquetes y el direccionamiento de contenido.

    cliente
    Sistema o proceso que solicita un servicio de otro sistema o proceso. Por ejemplo, una estación de trabajo o un PC que solicita documentos HTML de Lotus Domino(R) Go Webserver es un cliente de dicho servidor.

    clúster
    En Dispatcher, es un grupo de servidores TCP o UDP que se utilizan para el mismo propósito y que se identifican por el mismo nombre de host. Consulte también célula.

    dirección de clúster
    En el componente Dispatcher, dirección a la que se conectan los clientes.

    servidor en clúster
    Servidor que Dispatcher agrupa con otros servidores para formar un solo servidor virtual. Load Balancer equilibra el tráfico TCP o UDP entre dichos servidores agrupados.

    ubicación compartida
    Cuando Load Balancer se instala en la misma máquina en la que está efectuando el equilibrio de carga.

    consultor
    Recopila métricas de servidor de los servidores de los que se está realizando equilibrio de carga y envía la información de peso del servidor al conmutador que realiza el equilibrio de carga.

    controlador
    Conjunto de uno o más consultores.

    afinidad entre puertos
    La afinidad entre puertos es la característica de afinidad (permanencia en memoria) avanzada que permite abarcar varios puertos. Consulte también tiempo de permanencia en memoria.

    D

    daemon
    Supervisor de disco y ejecución. Programa que no se entra en acción explícitamente sino que permanece en estado suspendido esperando que suceda(n) determinada(s) condición(es). La idea es que quien realiza la acción de la condición no necesita saber que un daemon está esperando (aunque a menudo un programa realizará una acción sólo porque sabe que invocará implícitamente a un daemon).

    valor predeterminado
    Valor, atributo u opción que se presupone cuando no se indica ninguno explícitamente.

    dirección de destino
    Dirección de la máquina asociada de alta disponibilidad a la que se envían los pulsos y las respuestas.

    Dispatcher
    Componente de Load Balancer que equilibra eficazmente el tráfico TCP o UDP entre grupos de servidores individuales enlazados. La máquina Dispatcher es el servidor que ejecuta el código de Dispatcher.

    servidor de nombres de dominio
    DNS. Un servicio de consulta de datos, duplicado y distribuido, de propósito general utilizado principalmente en Internet para convertir los nombres de host en direcciones de Internet. Es, además, el estilo de nombre de host utilizado en Internet, aunque el nombre adecuado sea el de un nombre de dominio calificado al completo. Es posible configurar DNS para que utilice una secuencia de servidores de nombres, basado en los dominios contenidos en el nombre que se busca, hasta que se encuentre una coincidencia.

    notación decimal con puntos
    Representación sintáctica de un entero de 32-bit bits que consiste en cuatro números de 8-bit bits, escritos en base 10 y separados por puntos. Se utiliza para representar las direcciones IPv4.

    dscontrol
    Proporciona la interfaz para el componente Dispatcher de Load Balancer.

    dsserver
    En Dispatcher, maneja las peticiones desde la línea de mandatos para el ejecutor, gestor y asesores.

    E

    final del rango
    En el equilibrio de carga basado en reglas, valor superior especificado en una regla. El valor predeterminado depende del tipo de regla.

    Ethernet
    El tipo estándar para redes de área local (LAN). Permite que múltiples estaciones accedan a un medio de transmisión cuando lo deseen sin coordinación previa, evita la contención al utilizar detención de portadora y deferencia y resuelve la contención utilizando la detección de colisiones y la transmisión. Los protocolos de software utilizados por Ethernet pueden variar pero incluyen TCP/IP.

    executor
    Una de las funciones de Load Balancer. El ejecutor direcciona las peticiones a los servidores TCP o UDP y también supervisa el número de conexiones nuevas, activas y finalizadas y realiza el proceso de recogida de basura de las conexiones completadas o restablecidas. El ejecutor suministra las conexiones nuevas a la función de gestor.

    F

    FIN
    Bit de control (final) que ocupa un número de secuencia y que indica que el remitente no enviará mas datos o controles que ocupen espacio de secuencia.

    estado FIN
    Estado de una transacción que ha finalizado. Cuando una transacción se encuentra en estado FIN, los procesos de recogida de basura de Load Balancer pueden vaciar la memoria reservada para la conexión.

    cortafuegos
    Sistema que conecta una red privada, como la de una empresa, a una red pública, como Internet. Contiene programas que limitan el acceso entre dos redes. Consulte también pasarela proxy.

    FQDN
    Nombre de dominio calificado al completo. El nombre completo de un sistema, que consiste de su nombre de sistema local y su nombre de dominio, incluyendo el dominio de nivel superior (TLD). Por ejemplo, "venera" es un nombre de host y "venera.isi.edu" es un FQDN. Un FQDN debería ser suficiente para determinar una dirección de Internet exclusiva para cualquier host de Internet. Este proceso, llamado "resolución de nombres", utiliza el sistema de nombres de dominio (DNS).

    FTP (File Transfer Protocol)
    Protocolo de aplicaciones utilizado para transferir archivos a y desde sistemas en redes. FTP requiere un ID de usuario y a veces una contraseña para permitir el acceso a los archivos de un host remoto.

    G

    pasarela
    Unidad funcional que interconecta dos redes de sistemas con distintas arquitecturas.

    GRE
    Encapsulamiento genérico de direccionamiento. Un protocolo que permite a un protocolo de red arbitrario A ser transmitido mediante cualquier otro protocolo arbitrario B, encapsulando los paquetes de A dentro de paquetes GRE, que, a su vez, se contienen dentro de paquetes de B.

    H

    pulso
    Paquete simple que se envía entre dos máquinas Load Balancer en modalidad de alta disponibilidad y que utiliza Load Balancer en reposo para supervisar el estado de la máquina Load Balancer activa.

    alta disponibilidad
    Función de Load Balancer por medio de la cual una máquina Load Balancer puede tomar el control de las funciones de otra si sufre alguna anomalía.

    host
    Sistema conectado a una red que proporciona un punto de acceso a dicha red. Un host puede ser un cliente, un servidor o ambas cosas a la vez.

    nombre de host
    Nombre simbólico asignado a un host. Los nombres de host se resuelven en direcciones IP a través de un servidor de nombres de dominio.

    HTML (Lenguaje de marcación de hipertexto)
    Es el lenguaje que se utiliza para crear documentos de hipertexto. Los documentos de hipertexto incluyen enlaces con otros documentos que contienen información adicional acerca del término o tema resaltado. HTML controla el formato del texto y la posición de las áreas de entrada de formularios, por ejemplo, al igual que los enlaces navegables.

    HTTP (Protocolo de transferencia de hipertexto)
    Protocolo utilizado para transferir y visualizar documentos de hipertexto.

    HTTPS (Protocolo de transferencia de hipertexto, seguro)
    Protocolo utilizado para transferir y visualizar documentos de hipertexto utilizando SSL.

    I

    ICMP
    Protocolo de control de mensajes de Internet. Control de mensajes y protocolo de notificación de errores entre un servidor principal y una pasarela con Internet.

    IMAP
    Protocolo de acceso de mensajes de Internet. Protocolo que permite a un cliente acceder y manipular mensajes de correo electrónico en un servidor. Permite manipular las carpetas de mensajes remotos, de un modo equivalente a nivel funcional a los buzones locales.

    Internet
    Conjunto mundial de redes interconectadas que utiliza el conjunto de protocolos Internet y permiten el acceso público.

    intranet
    Red segura y privada que integra los estándares y las aplicaciones de Internet (como por ejemplo los navegadores Web) en la estructura de red informática existente de una organización.

    IP
    Protocolo Internet. Protocolo sin conexión que dirige datos a través de una red o redes interconectadas. IP actúa como un intermediario entre las capas superiores de protocolo y la capa física.

    dirección IP
    Dirección del protocolo Internet (IP). Dirección exclusiva que especifica la ubicación real de cada dispositivo o estación de trabajo de una red. También se conoce como una dirección de Internet.

    IPSEC
    Seguridad del protocolo de Internet. Estándar de seguridad para garantizar la seguridad en la red o en la capa de proceso de paquetes de las comunicaciones de red.

    L

    LAN
    Red de área local. Una red de dispositivos conectada dentro de un área geográfica limitada para las comunicaciones que puede conectarse a una red mayor.

    alias de bucle
    Dirección IP alternativa asociada a la interfaz de bucle. La dirección alternativa tiene como efecto secundario la ventaja de que no se anuncia en interfaz real.

    interfaz de bucle de retorno
    Interfaz que ignora las funciones de comunicación innecesarias cuando la información está dirigida a una entidad dentro del mismo sistema.

    M

    dirección MAC
    Dirección de control de acceso al medio. La dirección de hardware de un dispositivo conectado a un medio de red compartido.

    nodo gestionado
    En comunicaciones Internet, una estación de trabajo, un servidor o un direccionador que contiene un agente de gestión de red. En el protocolo Internet (IP), el nodo gestionado contiene generalmente un agente SNMP (Protocolo simple de gestión de red).

    gestor
    Una de las funciones de Load Balancer. El gestor establece los pesos basándose en contadores internos del ejecutor y en la realimentación proporcionada por los asesores. El ejecutor utilizará los pesos para efectuar el equilibrio de carga.

    marcar como inactivo
    Interrumpir todas las conexiones activas con un servidor y detener cualquier conexión o paquete nuevo que se envíe a ese servidor.

    marcar como activo
    Permitir que un servidor reciba nuevas conexiones.

    métrica
    Un proceso o mandato que devuelve un valor numérico que puede utilizarse para el equilibrio de carga en la red; por ejemplo, el número de usuarios conectados actualmente.

    dirección de métrica
    La dirección en la que se conecta la métrica del sistema.

    recopilador de métricas
    Reside en el consultor y es el responsable de recopilar una métrica o métricas.

    Metric Server
    Anteriormente conocido como Server Monitor Agent (SMA). Metric Server proporciona métrica específica del sistema al gestor de Load Balancer.

    MIB
    (1) Management Information Base. Conjunto de objetos a los que se puede acceder por medio de un protocolo de gestión de red.
    (2) Definición para la información de gestión que especifica la información que hay disponible en un host o en una pasarela y las operaciones permitidas.

    ubicación compartida de varias direcciones
    La ubicación compartida de varias direcciones permite al cliente especificar la dirección del servidor con ubicación compartida de modo que sea diferente de la dirección de no reenvío (NFA) en la configuración. Consulte también, ubicación compartida.

    alta disponibilidad mutua
    Permite que dos máquinas Dispatcher puedan ser entre sí tanto la máquina primaria como la máquina de reserva. Consulte también, reserva, alta disponibilidad, primaria.

    N

    nalcontrol
    Proporciona la interfaz para el componente Nortel Alteon Controller de Load Balancer.

    nalserver
    En Nortel Alteon Controller, maneja las peticiones desde la línea de mandatos para los consultores.

    máscara_red
    Para IPv4, máscara de 32-bit bits que se utiliza para identificar los bits de dirección de subred en la parte correspondiente al host de una dirección IP.

    red
    Sistema de comunicación de datos basado en hardware y software. Las redes se suelen clasificar de acuerdo con su extensión geográfica, redes de área local (LAN), redes de área metropolitana (MAN), redes de área amplia (WAN) y también de acuerdo con los protocolos que dichas redes utilizan.

    Conversión de direcciones de red
    NAT, o conversor de direcciones de red, LAN virtual. Dispositivo de hardware que se está desarrollando actualmente y que se utiliza para ampliar las direcciones de Internet que ya se utilizan. Permite utilizar direcciones IP duplicadas dentro de una empresa y direcciones exclusivas fuera.

    Conversión de puertos de direcciones de red (NAPT)
    NAPT, también conocido como correlación de puerto. Permite configurar múltiples daemons de servidor en un servidor físico para escuchar a diferentes números de puerto.

    estación de gestión de red
    En SNMP (Protocolo simple de gestión de red), estación que ejecuta los programas de aplicación de gestión que supervisan y controlan los elementos de red.

    proximidad de red
    Proximidad de dos entidades de red, como un cliente y un servidor, que Site Selector determina midiendo el tiempo de ida y vuelta.

    dirección de no reenvío (NFA)
    Dirección IP primaria de la máquina Load Balancer, utilizada para administración y configuración.

    NIC
    Tarjeta de interfaz de red. Una placa de circuitos adaptadores instalada en un sistema que proporciona conexión a una red.

    NNTP
    Protocolo de transferencia de noticias de red. Protocolo TCP/IP para transferir nuevos artículos.

    Nortel Alteon Controller
    Un componente de IBM Load Balancer. Nortel Alteon Controller utiliza la tecnología de Load Balancer para proporcionar información en tiempo real sobre el equilibrio de carga al conmutador de Nortel Alteon Web.

    Conmutador Nortel Alteon Web
    Conmutador Nortel Alteon ACE Director Series y Conmutador Nortel Alteon 180 Series de la cartera de Alteon Web Switching, utilizados para el reenvío de paquetes y el direccionamiento de contenidos.

    O

    Contenido de propietario
    Representa el nombre de propietario y la regla de contenido de un propietario, definidos ambos en el conmutador Cisco CSS.

    P

    paquete
    Unidad de datos que se dirige entre un origen y un destino en Internet o en cualquier red conmutada de paquetes.

    PICS
    Plataforma para la selección de contenidos de Internet. Los clientes habilitados para PICS permiten a los usuarios determinar qué servicios de tarifas desean utilizar y, para cada servicio de tarifas, qué tarifas se aceptan y cuáles no.

    ping
    Mandato que envía paquetes de petición de eco del protocolo ICMP (Control Message Protocol) a un host, una pasarela o un direccionador, a la espera de recibir una respuesta.

    POP3
    Post Office Protocol 3. Un protocolo utilizado para intercambiar correo en la red y para acceder a los buzones de correo.

    puerto
    Número que identifica un dispositivo de comunicación abstracto o un protocolo TCP/IP. De manera predeterminada, los servidores Web utilizan el puerto 80.

    primaria
    En alta disponibilidad para Dispatcher, la máquina que se inicia como máquina que dirige paquetes activamente. Su asociada, la máquina de reserva, supervisa el estado de la máquina primaria y asume el control si es necesario. Consulte también máquina de reserva, alta disponibilidad.

    prioridad
    En el equilibrio de carga basado en reglas, el nivel de importancia asignado a una regla dada. Dispatcher evalúa normas desde el primer nivel de prioridad hasta el último nivel de prioridad.

    red privada
    Red independiente a través de la que Dispatcher se comunica con servidores en clúster por motivos de rendimiento.

    protocolo
    Conjunto de reglas que rigen la operación de las unidades funcionales de un sistema de comunicación para que tenga lugar dicha comunicación. Los protocolos pueden determinar los detalles de nivel inferior de las interfaces entre máquina y máquina, tales como el orden en el que se envían los bits de un byte; también puede determinar intercambios de alto nivel entre programas de aplicación como, por ejemplo, la transferencia de archivos.

    Q

    Calidad del servicio (QoS)
    Las propiedades de rendimiento de un servicio de red, incluyendo rendimiento, retraso de la transmisión y prioridad. Algunos protocolos permiten que los paquetes o el flujo de datos incluyan los requisitos QoS.

    inmovilizar
    Finalizar un proceso permitiendo que las operaciones se lleven a término normalmente.

    R

    alcance
    En Dispatcher, asesor que emite mandatos ping a un destino determinado e informa de si el destino está respondiendo.

    dirección de alcance
    En alta disponibilidad para el componente Dispatcher, dirección del destino al que debe enviar el asesor los mandatos PING para determinar si el destino está respondiendo.

    dirección de retorno
    Una dirección IP o nombre de host exclusivo. Se configura en la máquina Dispatcher y Dispatcher lo utiliza como su dirección origen al realizar el equilibrio de carga de las peticiones del cliente al servidor.

    RMI
    Remote Method Invocation. Parte de la biblioteca de lenguajes de programación Java que habilita a un programa Java que se ejecuta en un sistema para acceder a los objetos de otro programa Java que se ejecuta en otro sistema.

    usuario root
    Autorización sin limitaciones para modificar y acceder a cualquier parte del sistema operativo AIX, Red Hat Linux o Solaris, asociada generalmente al usuario que gestiona el sistema.

    ruta
    El recorrido que sigue el tráfico de la red desde el punto de origen al punto de destino.

    direccionador
    Dispositivo que reenvía paquetes entre redes. La decisión del reenvío se basa en la información en la capa de red y en las tablas de direccionamiento, a menudo construidas por productos de direccionamiento.

    RPM
    Red Hat Package Manager.

    regla
    En el equilibrio de carga basado en reglas, mecanismo para agrupar servidores de modo que se pueda seleccionar un servidor basándose en una información distinta de la dirección de destino y el puerto.

    tipo de regla
    En el equilibrio de carga basado en reglas, indicador de la información que debe evaluarse para determinar si una regla es cierta.

    S

    escalable
    Relativo a la posibilidad que poseen los sistemas de adaptarse fácilmente a una mayor o menor intensidad de uso, volumen o demanda. Por ejemplo, un sistema escalable puede adaptarse eficazmente para que pueda funcionar con redes mayores o menores efectuando tareas de diversa complejidad.

    server
    Sistema que proporciona servicios compartidos a otros sistemas de una red, por ejemplo un servidor de archivos, un servidor de impresión o un servidor de correo.

    dirección de servidor
    El código exclusivo asignado a cada sistema que proporciona servicios compartidos a otros sistemas a través de una red; por ejemplo un servidor de archivos, un servidor de impresión o un servidor de correo. La dirección del servidor puede ser la dirección IP o el nombre del host.

    máquina servidor
    Servidor que Dispatcher agrupa con otros servidores para formar un solo servidor virtual. Dispatcher equilibra el tráfico entre las máquinas servidor. Sinónimo de servidor en clúster.

    servicio
    (1) Función que ofrecen uno o más nodos; por ejemplo, HTTP, FTP y Telnet.
    (2) En el caso de Nortel Alteon Controller, un servicio es la función o información solicitada por un usuario final desde un sitio. Se identifica mediante una dirección IP virtual y un número de puerto virtual en una petición de usuario final. En el conmutador, se define mediante un identificador de servidor virtual, que es un entero y un número de puerto virtual o nombre de servicio.
    (3) En el caso de Cisco CSS Consultant, un servicio es una ubicación de destino donde reside físicamente una parte del contenido. Por ejemplo, un servidor local o remoto y un puerto.

    shell
    Software que acepta y procesa las líneas de mandatos de la estación de trabajo de un usuario. Bash es uno de los diferentes shell disponibles para UNIX.

    nombre de sitio
    Un nombre de sitio es un nombre de host que no es posible resolver y que solicitará el cliente. Por ejemplo, un sitio Web con 3 servidores (1.2.3.4, 1.2.3.5 y 1.2.3.6) configurado con el nombre de sitio www.dnsload.com. Cuando un cliente solicita este nombre de sitio, se devolverá una de las tres direcciones IP de servidor como resolución. El nombre del sitio debe ser un nombre de dominio calificado al completo, por ejemplo, dnsload.com. Un espacio de nombres no cualificado, por ejemplo, dnsload no es válido para un nombre de sitio.

    Site Selector
    Componente de equilibrio de carga basado en DNS de Load Balancer. Site Selector equilibra la carga en los servidores dentro de una red de área amplia (WAN) utilizando las medidas y pesos que ha reunido el componente Metric Server ejecutándose en dichos servidores.

    SMTP
    Protocolo simple de transferencia de correo. En el conjunto de protocolos de Internet, un protocolo de aplicación para transferir correo entre usuarios del entorno de Internet. SMTP especifica las secuencias de intercambio de correo y el formato de los mensajes. Presupone que el Protocolo de control de transmisión (TCP) es el protocolo subyacente.

    SNMP
    Protocolo simple de gestión de red. El protocolo estándar de Internet, definido en STD 15, RFC 1157 y desarrollado para gestionar los nodos en una red IP. SNMP no está limitado a TCP/IP. Puede utilizarse para gestionar y supervisar todo tipo de equipos incluyendo sistemas, direccionadores, concentradores de cableado, grabadoras y bibliotecas de discos.

    dirección origen
    En alta disponibilidad para el componente Dispatcher, dirección de la máquina asociada de alta disponibilidad que envía los pulsos.

    SPARC
    Arquitectura de procesador escalable.

    sscontrol
    Proporciona la interfaz para el componente Site Selector de Load Balancer.

    SSL
    Capa de sockets seguros. Plan de seguridad muy popular desarrollado por Netscape Communications Corp. en colaboración con RSA Data Security Inc. SSL permite a la máquina cliente autentificar el servidor, así como todos los datos y peticiones que deben cifrarse. El URL de un servidor protegido mediante SSL comienza por https (y no por http).

    ssserver
    En Site Selector, maneja las peticiones desde la línea de mandatos para el nombre del sitio, el gestor y los asesores.

    tiempo de permanencia en memoria
    El período de permanencia en memoria es el intervalo entre el cierre de una conexión y la apertura de una conexión nueva, durante el cual un cliente se volverá a enviar al mismo servidor utilizado durante la primera conexión. Una vez transcurrido el tiempo de permanencia en memoria, puede enviarse el cliente a un servidor distinto del primero.

    estrategia
    En alta disponibilidad de Dispatcher, palabra clave para especificar de qué modo se efectuará la recuperación cuando se produzca una anomalía en la máquina activa.

    máscara de subred
    Para IPv4, máscara de 32-bit bits que se utiliza para identificar los bits de dirección de subred en la parte correspondiente al host de una dirección IP.

    SYN
    Bit de control en el segmento de entrada que ocupa un número de secuencia y que se utiliza en la inicialización de una conexión para indicar dónde comenzará la numeración de la secuencia.

    T

    TCP
    Protocolo de control de transmisión. Protocolo de comunicaciones que se utiliza en Internet. TCP proporciona un intercambio de información fiable entre varios host. Utiliza IP como el protocolo subyacente.

    TCP/IP
    Protocolo de control de transmisión/Protocolo Internet. Conjunto de protocolos diseñados para permitir la comunicación entre redes sin tener en cuenta las tecnologías de comunicación utilizadas en cada red.

    máquina servidor TCP
    Servidor que Load Balancer agrupa con otros servidores para formar un solo servidor virtual. Load Balancer equilibra el tráfico TCP entre las máquinas servidor TCP. Sinónimo de servidor en clúster.

    Telnet
    Protocolo de emulación de terminal; se trata de un protocolo de aplicación TCP/IP para el servicio de conexión remota. Telnet permite a un usuario situado en una ubicación acceder a un host remoto como si la estación de trabajo del usuario estuviera conectada directamente a dicho host remoto.

    tiempo de espera
    Intervalo de tiempo permitido para que se lleve a cabo una operación.

    TOS
    Tipo del servicio. Campo de un byte en la cabecera IP del paquete SYN.

    TTL
    UN TTL de DNS (tiempo de duración) es el número de segundos que un cliente puede almacenar en caché la respuesta de resolución de nombres.

    U

    UDP
    User Datagram Protocol. En la suite de protocolos de Internet, protocolo de aplicación que proporciona un servicio de datagramas sin conexión y no fiable. Permite que un programa de aplicación de una máquina o proceso envíe un datagrama a un programa de aplicación de otra máquina o proceso. UDP utiliza el protocolo IP (Protocolo Internet) para enviar los datagramas.

    URI
    Identificador universal de recurso. Dirección codificada para cualquier recurso de la Web, tales como documento HTML, imagen, vídeo clip, programa, etc.

    URL
    Localizador universal de recursos. Una manera estándar de especificar la ubicación de un objeto, normalmente una página Web, en Internet. Los URL son el formato de dirección utilizado en la World Wide Web. Se utilizan en documentos HTML para especificar el destino de un hiperenlace que normalmente es otro documento HTML (posiblemente almacenado en otro sistema).

    V

    VPN
    Red privada virtual (VPN). Red formada por uno o varios túneles IP protegidos que conectan dos o varias redes.

    W

    WAN
    Red de área amplia. Red que provee servicios de comunicaciones a un área geográfica mayor que la servida por una red de área local o metropolitana. Puede utilizar o proporcionar recursos de comunicaciones públicas.

    WAP
    Protocolo de aplicación inalámbrico. Un estándar internacional abierto para aplicaciones que utilizan comunicaciones inalámbricas, por ejemplo, acceder a Internet mediante un teléfono móvil.

    WAS
    WebSphere Application Server.

    Web
    Red de servidores HTTP que contienen programas y archivos, muchos de ellos documentos hipertexto que contienen enlaces con otros documentos en servidores HTTP. También World Wide Web.

    asistente
    Diálogo dentro de una aplicación que utiliza instrucciones paso a paso para guiar al usuario en una tarea específica.

    WLM
    Gestor de carga de trabajo. Asesor que se proporciona con Dispatcher. Está diseñado para funcionar únicamente junto con servidores en hosts OS/390 que ejecutan el componente Gestor de carga de trabajo (WLM) de MVS.

    Índice

    A B C D E F G H I K L M N O P Q R S T U V W
    A B C D E F G H I K L M N O P Q R S T U V W