FIDEL SALGUEIRO
 Las arquitecturas tradicionales de la red, tal como las conocemos, 
fueron concebidas para que el control, enrutamiento y la señalización de
 la red, fuesen parte de una estructura de gestión estática, jerárquica y
 dependientes de la infraestructura de red. Una de sus grandes 
dificultades sigue siendo la imposibilidad de realizar cambios de modo 
dinámico, en función de requerimientos de tráfico o servicios. Por 
ejemplo, un control de cambios en la red para implementar rutinas, 
cambiar enrutamientos o implementar un nuevo servicio, implica programar
 rutinas para intervenir en cada uno de los dispositivos y endpoints que
 intervienen en el servicio.
 En un esfuerzo encabezado por la Open Networking Foundation (ONF), una 
organización multiempresarial sin fines de lucro, se ha tratado de 
desarrollar un modelo de red flexible que se adapte a las realidades del
 impredecible tráfico de datos. Así nace la arquitectura de red SDN 
(Software Defined Networking, por sus siglas en inglés) o redes 
definidas por software, con la cual se espera cambiar la arquitectura de
 las redes tal como las conocemos. Entre los miembros de la ONF se 
encuentran Google, Verizon, T-Mobile, Alcatel-Lucent, Facebook, Yahoo, 
Microsoft, Cisco, IBM, HP.
 La ONF ha liderado el desarrollo del SDN y la normalización de sus 
elementos críticos de arquitectura, entre ellos el protocolo OpenFlow, 
desarrollado para gestionar el software de control de la red y su 
interconexión con los distintos dispositivos de red, estableciendo 
mecanismos de comunicación entre las estructuras de control de la red, 
el flujo de datos y el plano de señalización.
 OpenFlow es una interfaz estándar en las especificaciones del SDN, ha 
sido diseñado como interfaz para garantizar la conectividad y el 
rendimiento de todos los dispositivos, fabricados por distintos 
proveedores que se conectan a la red. OpenFlow está siendo desplegado en
 una variedad de dispositivos de red y elementos de software, tanto para
 empresas como para operadores, con el propósito de cubrir y garantizar 
los siguientes aspectos:
 -Gestión centralizada para el control de múltiples dispositivos conectados a la red.
 -Gestión mejorada de la red mediante el uso de API´s comunes que hacen 
transparente el aprovisionamiento de sistemas y aplicaciones.
 -Rápida adopción de aplicaciones innovadoras al ofrecer en la misma red
 capacidades adicionales y/o nuevos servicios sin necesidad de 
configurar los dispositivos de modo individual o esperar nuevas 
actualizaciones o releases en los equipos, software y dispositivos por 
parte de los proveedores.
 -Aumento de la fiabilidad y seguridad de la red consecuencia de la 
implementación de políticas uniformes para el control de los cambios 
para minimizar las fallas y una gestión centralizada y automatizada de 
los dispositivos de red.
 -Generación de un ambiente de programación común para operadores, 
empresas, desarrolladores independientes de software y usuarios (como 
generadores de contenidos y aplicaciones), y no sólo los fabricantes de 
equipos, lo que le proporciona a todas las partes nuevas oportunidades 
tanto para la generación de ingresos como para una oferta diferenciada 
de aplicaciones y servicios.
 -Red granular de control con la capacidad de aplicar una amplia gama de
 políticas estandarizadas de usuarios, dispositivos, niveles de 
aplicación y establecimiento de sesiones.
 -Mejorar la experiencia del usuario final al adaptar la red a sus comportamientos.
 GOOGLE PIONERO
 En abril de 2012, en el Open Networking Summit de Santa Clara, Google 
hizo el anuncio de la implementación de SDN y Openflow en toda su red 
para interconectar todos sus centros de datos y gestionar de modo 
eficiente las distintas variedades de tráficos que corren en su red 
(como por ejemplo, Gmail y YouTube).
 En la mencionada presentación, que puede ser vista en YouTube, Google 
no solo habla de las mejoras de rendimiento alcanzadas en su red sino de
 reducciones importantes en sus costos de operación, que alcanzan 8%. 
 El boom de los smartphones y tablets, el explosivo consumo de datos 
sobre estos dispositivos, la creciente demanda de contenidos, la 
virtualización de servidores y la entrada de los servicios en la nube, 
son algunas de las tendencias que han impulsado la revisión y 
transformación de las arquitecturas tradicionales de red y el cambio de 
paradigma en su gestión y operación.
 Las redes actuales, tanto las TDM como las NGN, han sido diseñadas bajo
 una estructura de árbol jerarquizado. Este diseño tenía sentido cuando 
la arquitectura cliente-servidor, con la cual nació el modelo de 
Internet, era el dominante en la industria; pero se adapta mal a la 
dinámica actual de la industria, donde los patrones de datos han 
cambiado significativamente.
 En contraste con las aplicaciones cliente-servidor donde el grueso de 
la comunicación se producía entre un cliente y un servidor, hoy en día 
las aplicaciones de acceso a diferentes servidores, la creación de una 
oleada de trafico máquina a máquina, el acceso a contenidos y 
aplicaciones corporativas o personales desde cualquier tipo de 
dispositivo en cualquier lugar y en cualquier momento, ha generado un 
modelo de «utility computing» que genera el tráfico adicional e 
impredecible en la red.
 La «consumerization del IT» ha generado una presión adicional en las 
redes IT corporativas, debido al uso masivo de dispositivos personales 
como teléfonos inteligentes, tabletas y notebooks, para la gestión 
remota de aplicaciones, que sumados al aumento servicios bajo demanda en
 la nube para acceder a aplicaciones, infraestructura y otros recursos 
de TI; el incremento en las necesidades de procesamiento y el 
surgimiento de megabases de datos, ha generado incrementos constantes en
 las capacidades de infraestructura de red y demandas de anchos de banda
 cada vez mayores y de servicios de conectividad donde sea y cuando sea.
 Consecuencia de lo anterior, se han modificado los patrones del tráfico
 de datos, se le ha puesto una complejidad adicional a las redes con un 
incremento sustancial en sus costos de equipamiento, afectando las 
rentabilidades y los ingresos por concepto de operación de los 
servicios.
 Como arquitectura emergente de red, el concepto SDN trata de atender 
todos estos problemas. La idea en su diseño es un modelo de red donde el
 control sea completamente programable por software y esté totalmente 
desvinculado del flujo de los datos y de los dispositivos 
interconectados en la red (como routers, switch, dispostivos de red).
 El principio que está detrás de esta arquitectura es la completa 
conectividad que generan los entornos orientados a la web. En el caso 
del modelo IMS (IP Multimedia Subsystem), la inteligencia de la red la 
tiene el eje central, el CSCF (Call State Control Function), que integra
 a tres subsistemas: P-CSCF (Proxy CSCF), S-CSCF (Serving CSCF), y 
I-CSCF (Interrogating CSCF); encargados, básicamente, de procesar y 
enrutar la señalización, controlar los recursos de transporte y realizar
 el registro y la autenticación de los usuarios.
 En la arquitectura SDN la inteligencia de la red está centralizada 
desde un punto de vista lógico, y está basada en controladores de 
software y en objetos de datos que gestionan políticas. Los dispositivos
 que se conectan en la red no requieren procesar normas y protocolos de 
acceso, sino simplemente seguir las instrucciones de los controladores 
SDN. Los operadores y administradores de red pueden configurar servicios
 y aplicaciones mediante estos objetos de datos, en lugar de desarrollar
 miles de líneas de código para configurar cada uno de los dispositivos 
de red. La inteligencia centralizada en los controladores SDN, permite 
hacer cambios dinámicamente en tiempo real en la red, para con ello 
implementar muy rápidamente nuevas aplicaciones y servicios.
 Los controladores de SDN se soportan en un conjunto de APIs que hacen 
posible la implementación de servicios de red comunes, como 
enrutamiento, reenvío de señales multi-cast, seguridad, control de 
acceso, gestión del ancho de banda, ingeniería de tráfico, calidad del 
servicio y almacenamiento.
 El protocolo OpenFlow se implementa como interfaz en ambos lados, vale 
decir entre los dispositivos de infraestructura de red y el software de 
control de SDN. OpenFlow utiliza el concepto de flujos para identificar 
el tráfico basado en reglas predefinidas por el software de control de 
SDN. Adicionalmente, permite definir cómo debe ser el flujo de tráfico a
 través de dispositivos de red basados en parámetros tales como los 
patrones de uso, aplicaciones y recursos de la nube.
 Todo esto le proporciona a SDN un control extremadamente granular sobre
 la red, lo que le permite responder a cambios en tiempo real a nivel de
 la aplicación, usuarios y sesiones.
 SDN ofrece, tal como lo demuestra la experiencia de Google, a 
operadores, proveedores de servicios web, la capacidad para implementar 
un modelo de «utility computing» o de «IT como servicio», mediante la 
implementación de un concepto de autoservicio, garantizando que los 
recursos de red se encuentren eficientemente implementados, reduciendo 
los costos de capital y gastos operativos.
 El futuro de las redes se basará cada vez más en software. SDN promete 
transformar las redes estáticas de hoy en plataformas flexibles y 
programables con la inteligencia para asignar recursos de forma 
dinámica, virtualizar servicios y optimizar las capacidades de cómputo 
IT y de infraestructura de red. Está en camino de convertirse en la 
nueva norma para las redes.
Fuente: InsideTele.com 
 

