FIDEL SALGUEIRO
Las arquitecturas tradicionales de la red, tal como las conocemos,
fueron concebidas para que el control, enrutamiento y la señalización de
la red, fuesen parte de una estructura de gestión estática, jerárquica y
dependientes de la infraestructura de red. Una de sus grandes
dificultades sigue siendo la imposibilidad de realizar cambios de modo
dinámico, en función de requerimientos de tráfico o servicios. Por
ejemplo, un control de cambios en la red para implementar rutinas,
cambiar enrutamientos o implementar un nuevo servicio, implica programar
rutinas para intervenir en cada uno de los dispositivos y endpoints que
intervienen en el servicio.
En un esfuerzo encabezado por la Open Networking Foundation (ONF), una
organización multiempresarial sin fines de lucro, se ha tratado de
desarrollar un modelo de red flexible que se adapte a las realidades del
impredecible tráfico de datos. Así nace la arquitectura de red SDN
(Software Defined Networking, por sus siglas en inglés) o redes
definidas por software, con la cual se espera cambiar la arquitectura de
las redes tal como las conocemos. Entre los miembros de la ONF se
encuentran Google, Verizon, T-Mobile, Alcatel-Lucent, Facebook, Yahoo,
Microsoft, Cisco, IBM, HP.
La ONF ha liderado el desarrollo del SDN y la normalización de sus
elementos críticos de arquitectura, entre ellos el protocolo OpenFlow,
desarrollado para gestionar el software de control de la red y su
interconexión con los distintos dispositivos de red, estableciendo
mecanismos de comunicación entre las estructuras de control de la red,
el flujo de datos y el plano de señalización.
OpenFlow es una interfaz estándar en las especificaciones del SDN, ha
sido diseñado como interfaz para garantizar la conectividad y el
rendimiento de todos los dispositivos, fabricados por distintos
proveedores que se conectan a la red. OpenFlow está siendo desplegado en
una variedad de dispositivos de red y elementos de software, tanto para
empresas como para operadores, con el propósito de cubrir y garantizar
los siguientes aspectos:
-Gestión centralizada para el control de múltiples dispositivos conectados a la red.
-Gestión mejorada de la red mediante el uso de API´s comunes que hacen
transparente el aprovisionamiento de sistemas y aplicaciones.
-Rápida adopción de aplicaciones innovadoras al ofrecer en la misma red
capacidades adicionales y/o nuevos servicios sin necesidad de
configurar los dispositivos de modo individual o esperar nuevas
actualizaciones o releases en los equipos, software y dispositivos por
parte de los proveedores.
-Aumento de la fiabilidad y seguridad de la red consecuencia de la
implementación de políticas uniformes para el control de los cambios
para minimizar las fallas y una gestión centralizada y automatizada de
los dispositivos de red.
-Generación de un ambiente de programación común para operadores,
empresas, desarrolladores independientes de software y usuarios (como
generadores de contenidos y aplicaciones), y no sólo los fabricantes de
equipos, lo que le proporciona a todas las partes nuevas oportunidades
tanto para la generación de ingresos como para una oferta diferenciada
de aplicaciones y servicios.
-Red granular de control con la capacidad de aplicar una amplia gama de
políticas estandarizadas de usuarios, dispositivos, niveles de
aplicación y establecimiento de sesiones.
-Mejorar la experiencia del usuario final al adaptar la red a sus comportamientos.
GOOGLE PIONERO
En abril de 2012, en el Open Networking Summit de Santa Clara, Google
hizo el anuncio de la implementación de SDN y Openflow en toda su red
para interconectar todos sus centros de datos y gestionar de modo
eficiente las distintas variedades de tráficos que corren en su red
(como por ejemplo, Gmail y YouTube).
En la mencionada presentación, que puede ser vista en YouTube, Google
no solo habla de las mejoras de rendimiento alcanzadas en su red sino de
reducciones importantes en sus costos de operación, que alcanzan 8%.
El boom de los smartphones y tablets, el explosivo consumo de datos
sobre estos dispositivos, la creciente demanda de contenidos, la
virtualización de servidores y la entrada de los servicios en la nube,
son algunas de las tendencias que han impulsado la revisión y
transformación de las arquitecturas tradicionales de red y el cambio de
paradigma en su gestión y operación.
Las redes actuales, tanto las TDM como las NGN, han sido diseñadas bajo
una estructura de árbol jerarquizado. Este diseño tenía sentido cuando
la arquitectura cliente-servidor, con la cual nació el modelo de
Internet, era el dominante en la industria; pero se adapta mal a la
dinámica actual de la industria, donde los patrones de datos han
cambiado significativamente.
En contraste con las aplicaciones cliente-servidor donde el grueso de
la comunicación se producía entre un cliente y un servidor, hoy en día
las aplicaciones de acceso a diferentes servidores, la creación de una
oleada de trafico máquina a máquina, el acceso a contenidos y
aplicaciones corporativas o personales desde cualquier tipo de
dispositivo en cualquier lugar y en cualquier momento, ha generado un
modelo de «utility computing» que genera el tráfico adicional e
impredecible en la red.
La «consumerization del IT» ha generado una presión adicional en las
redes IT corporativas, debido al uso masivo de dispositivos personales
como teléfonos inteligentes, tabletas y notebooks, para la gestión
remota de aplicaciones, que sumados al aumento servicios bajo demanda en
la nube para acceder a aplicaciones, infraestructura y otros recursos
de TI; el incremento en las necesidades de procesamiento y el
surgimiento de megabases de datos, ha generado incrementos constantes en
las capacidades de infraestructura de red y demandas de anchos de banda
cada vez mayores y de servicios de conectividad donde sea y cuando sea.
Consecuencia de lo anterior, se han modificado los patrones del tráfico
de datos, se le ha puesto una complejidad adicional a las redes con un
incremento sustancial en sus costos de equipamiento, afectando las
rentabilidades y los ingresos por concepto de operación de los
servicios.
Como arquitectura emergente de red, el concepto SDN trata de atender
todos estos problemas. La idea en su diseño es un modelo de red donde el
control sea completamente programable por software y esté totalmente
desvinculado del flujo de los datos y de los dispositivos
interconectados en la red (como routers, switch, dispostivos de red).
El principio que está detrás de esta arquitectura es la completa
conectividad que generan los entornos orientados a la web. En el caso
del modelo IMS (IP Multimedia Subsystem), la inteligencia de la red la
tiene el eje central, el CSCF (Call State Control Function), que integra
a tres subsistemas: P-CSCF (Proxy CSCF), S-CSCF (Serving CSCF), y
I-CSCF (Interrogating CSCF); encargados, básicamente, de procesar y
enrutar la señalización, controlar los recursos de transporte y realizar
el registro y la autenticación de los usuarios.
En la arquitectura SDN la inteligencia de la red está centralizada
desde un punto de vista lógico, y está basada en controladores de
software y en objetos de datos que gestionan políticas. Los dispositivos
que se conectan en la red no requieren procesar normas y protocolos de
acceso, sino simplemente seguir las instrucciones de los controladores
SDN. Los operadores y administradores de red pueden configurar servicios
y aplicaciones mediante estos objetos de datos, en lugar de desarrollar
miles de líneas de código para configurar cada uno de los dispositivos
de red. La inteligencia centralizada en los controladores SDN, permite
hacer cambios dinámicamente en tiempo real en la red, para con ello
implementar muy rápidamente nuevas aplicaciones y servicios.
Los controladores de SDN se soportan en un conjunto de APIs que hacen
posible la implementación de servicios de red comunes, como
enrutamiento, reenvío de señales multi-cast, seguridad, control de
acceso, gestión del ancho de banda, ingeniería de tráfico, calidad del
servicio y almacenamiento.
El protocolo OpenFlow se implementa como interfaz en ambos lados, vale
decir entre los dispositivos de infraestructura de red y el software de
control de SDN. OpenFlow utiliza el concepto de flujos para identificar
el tráfico basado en reglas predefinidas por el software de control de
SDN. Adicionalmente, permite definir cómo debe ser el flujo de tráfico a
través de dispositivos de red basados en parámetros tales como los
patrones de uso, aplicaciones y recursos de la nube.
Todo esto le proporciona a SDN un control extremadamente granular sobre
la red, lo que le permite responder a cambios en tiempo real a nivel de
la aplicación, usuarios y sesiones.
SDN ofrece, tal como lo demuestra la experiencia de Google, a
operadores, proveedores de servicios web, la capacidad para implementar
un modelo de «utility computing» o de «IT como servicio», mediante la
implementación de un concepto de autoservicio, garantizando que los
recursos de red se encuentren eficientemente implementados, reduciendo
los costos de capital y gastos operativos.
El futuro de las redes se basará cada vez más en software. SDN promete
transformar las redes estáticas de hoy en plataformas flexibles y
programables con la inteligencia para asignar recursos de forma
dinámica, virtualizar servicios y optimizar las capacidades de cómputo
IT y de infraestructura de red. Está en camino de convertirse en la
nueva norma para las redes.
Fuente: InsideTele.com