Hablamos de Internet, de la nube, de redes privadas virtuales, de
redes de área local y los entendemos y asimilamos, generalmente, sin
mucho problema, pudiendo incluso explicar a otras personas qué nos
ofrecen y cómo funcionan, siempre y cuando no entremos en mucho detalle,
porque es ahí donde las cosas empiezan a complicarse, y de qué manera,
porque no es nada sencillo explicar cómo un grupo de personas pueden
jugar en red, como tus correos electrónicos llegan sus destinatarios o
cómo se sincronizan tus carpetas con tu gestor de almacenamiento en la
nube favorito, sobre todo si empiezas a adentrarte en el proceloso mundo
del TCP/IP, sus diferentes capas y las infraestructuras software y
hardware que la soportan o lo que es lo mismo, a cómo viaja esa
información entre un origen y un destino.
Los expertos y profesionales en redes de comunicaciones son los que
podrán explicarte con mayor profundidad eso que no vemos, si bien, para
ellos la complejidad también se incrementa conforme seguimos
descendiendo en el nivel de detalle ya que no para de aumentar el número
de tecnologías y soluciones que aparecen, así como el número de
servicios a todos los niveles que se pretenden ofrecer en una red de
comunicaciones.
Para ellos existen “piezas” que utilizan, que saben como
interconectar, configurar y administrar pero que son como cajas negras
limitadas a las especificaciones del fabricante, que si bien cubren
determinados estándares, generalmente cada una de ellas requiere unos
conocimientos específicos no solo para extraerle el mayor provecho
posible, sino para hacerlas funcionar de la manera que necesitamos y nos
interesa.
A medida que es mayor la red con la que se trabaja, intervienen un
mayor número de elementos software y hardware heterogéneos, que se van a
ir actualizando con el tiempo de manera no homogénea (y probablemente
no organizada), lo cual sumado a que el tráfico no tiene por qué ser
plano (pudiéndose establecer determinados niveles de calidad del
servicio) hace que las tareas de administración se compliquen sobre
manera.
Uno de esos elementos son los conmutadores que son dispositivos o
elementos de infraestructura de red cuya función es interconectar
diferentes segmentos de red o múltiples subredes para que funcionen de
manera integrada como una sola.
Su función principal es la recepción y envío de paquetes, haciendo
uso de su capacidad de almacenamiento y aprendizaje de direcciones, de
manera que todo paquete dirigido a un mismo destino seguirá una misma
trayectoria y será tratado de la misma manera. Cuanto mayor sea el nivel
de funciones que se requieran del conmutador mayor será su coste
teniendo en cuenta que en este caso, los upgrades no se solucionan
generalmente con “parches” sino con la adquisición de nueva
infraestructura.
Por tanto, podemos considerar que existe una gestión/administración
distribuida dependiente de cada uno de esos conmutadores y de sus
limitaciones o lo que es lo mismo, dependiente de un conjunto de cajas
negras que tienen que ser reemplazadas en el caso de que se requiera un
nivel de “inteligencia” que vaya más allá de las que tiene definidas,
con el coste que eso supone (si alguna de las cajas negras es un
componente software, además de estar limitada a la propia funcionalidad
que ofrece, salvo que sea un desarrollo a medida o sea una solución de
software libre, será necesario montar un mecanismo para tratar de
automatizar en lo posible la configuración de las reglas definidas).
Las redes definidas por software tienen como objetivo simplificar la
gestión/administración de las redes, centralizándola e independizándola
de las soluciones específicas para el direccionamiento, es decir, se
pretende establecer dos planos diferenciando lo que es el plano de
control que es donde se toman decisiones sobre el destino del tráfico y
lo que es el plano de datos que es la infraestructura que hace el
“trabajo sucio” de enviar el tráfico al destino seleccionado.
Es decir, seguimos teniendo cajas negras pero se extrae de ellas la
mayor parte de su “inteligencia” y se integran en un único punto, que se
denomina controlador.
Además de las posibilidades que este paradigma presenta en cuanto a
la flexibilidad en la implementación y mejora de servicios, que se
gestionará en de manera centralizada, tenemos su independencia respecto
al proveedor de cada uno de los conmutadores de la red, lo que ofrece un
marco de trabajo apropiado para un entorno de red que debe ser
escalable y adaptarse a la demanda existente en cada momento.
Tenemos dos planos: inteligencia y músculo, se necesita, por tanto,
un mecanismo de comunicación entre ambos y que sea un estándar. Con este
fin surge OpenFlow promovido por la ONF (Open Networking Foundation)
http://jummp.wordpress.com/2013/11/16/sdn-software-defined-networking/
No hay comentarios.:
Publicar un comentario