Infraestructuras,Networking..


Recientemente me he quedado blanco al leer esta noticia

Desde luego el señor César Alierta se ha quedado agusto con sus declaraciones y defiendo posturas increíbles a estas alturas de vida. Me gustaría recordarle al señor presidente de telefónica, como se fundó telefónica, en qué basa sus ingresos y cuáles son sus condiciones de servicio.

Señor presidente, tal vez se olvida usted de algunas cosas, se las aclaro:

– Telefónica se fundó por todos los españoles con dinero público, creando como pilar de la empresa , el tendido de cableado de pares de cobre.

– Curiosamente el servicio de ADSL esta basado en esta red de pares de cobre, que por usarla ó no usarla ,usted cobra una cuota de 14 € en factura, aunque no se haga el menor uso.

– Esta red tan costosa de mantener fue sufragada cuando la empresa se creó con la famosa acción de oro del estado. Es decir semi-pública y dinero público.

– El servicio de ADSL que se presta en España es de los mas caros de Europa , con una velocidad a años luz de otros paises, lo cual bloquea la expansión y la innovacion de las empresas españolas.

– Con una red de velocidad digna, las empresas españolas podrían disparar servicios online y software en la nube ( SaaS ).

– Con un ADSL veloz a un coste digno podrían dispararse servicios reales de teletrabajo para empresas y trabajadores, lo cual nos haría mucho más competitivos y ahorraría una auténtico dineral en desplazamientos y costes para las empresas.

– Con un servicio de RDSI de un coste digno ( sin cuotas desorbitadas mensuales ) y una conexión rapida de calidad , se dispararían los servicios de videoconferencia en las empresas, que tanta falta hace, aumentando enormemente la productividad reduciendo tiempos estúpidos.

– Los buscadores como google, no viven de cobrar cuotas de servicio por no hacer nada ó por mantener activo el buscador como hacen ustedes.

– Preocupese de que sus servicios y su red de subcontratas aporte fiabilidad, servicio y calidad a las empresas contratantes en vez de derivar todos los problemas a un número de telefono en el que poco importan sus problemas.

– Decir que cuesta mucho mantener su red , tiene narices cuando la base de su red está sufragada por todos, quien sufraga la red y mantenimiento de servicios y comunicaciones de las empresas?

– Que usted pretenda y diga que son los impulsores de la competitividad con su actual red, que quiere que le diga, parece una broma.
– Ponganse ustedes a trabajar en ofrecer servicios de verdad y no mantenimiento de ordenadores a autónomos que no sirve para nada, a cobrar mantenimientos de ADSL porque vaya un técnico mediocre a una empresa y un largo etc.

– Debería saber que su red móvil ofrece una paupérima calidad en servicios de datos, como el resto de las operadoras, lo cual impide expandir servicios de video móvil, videoconferencias, llamadas de video y un largo etc..

En definitiva, no pague su descenso en su facturación porque los hogares cada vez más eliminan la linea fija y ve como se van a opciones de oficina móvil, adsl móvil , con los navegadores de Internet, que si algo precisamente están haciendo es impulsar la sociedad de la información. Ahhhhh y sin cobrar cuotas a nadie.

Saludos tecnólogos,

Recientemente me he encontrado con un video que creo que puede hacer reflexionar sobre el tema del ciberterrorismo. Mucho se ha hablado de este tema y lejos de terminarse el debate , irá a más. Un mundo gobernado por sistemas de información y control que gobiernan multitud de infraestructura críticas es y será objetivo de ciberterroritas y mafias para controlarlos. Creeis que es un mito o una verdadera realidad en la que cada día , las mafias y terroristas planean sus ataques y guerras desde un teclado.

Parece que la seguridad tomará más protagonismo del que tiene … no creeis?

saludos tecnólogos..

virtualiza
El pasado martes 31 de Marzo, asistí al evento de Virtualización inteligente de Microsoft e Intel en Kinepolis, ciudad de la imagen, Madrid.
Mi primera impresión fue la elevada cantidad de personas que acudió al evento. Últimamente no se ve muy animado al sector..
En el evento se trato de virtualización desde muchos frentes, empezando por el hardware y software a virtualizaciones de aplicaciones y el famoso y ansiado VDI ( Virtual Desktop Infraestructure – Virtualización del puesto de trabajo ).
Se presento el nuevo intel Xeon 5500 con sus instrucciones específicas para la utilizacion de forma directa por los Hipervisores ( capa sw de virtualización..) para aumentar el rendimiento y estar más cerca de la cpu , evitando traducciones de alto nivel. Por supuesto, optimizado para Hyper-V , eso sí en su nueva version R2.

Parece que Microsoft ha decidido meterse verdaderamente y de lleno en la virtualización. Hoy por hoy creo que las compañias se han dado cuenta de la importante via de negocio que se presenta. Ante un mercado que reclama una reducción de costes , un aumento de productividad y una exigente continuidad, parece que la oportunidad esta al alcance de la mano.

Lo que sí es cierto es que no hay que virtualizarlo todo , ni de cualquier manera. La importancia de la gestión de las maquinas virtuales, así como la seguridad y disponibilidad de las mismas abre una nueva problemática que debemos estudiar y analizar.

Desplegar un servidor, era cuestion de horas, ahora de segundos , con lo que esto supone. Los administradores de sistemas pueden verse desbordados en gestionar este nuevo parque si no dispone de las herramientas adecuadas.

Microsoft parece que está entrando fuerte y recuperando posiciones ante VMWare y nos ofrece:
– software de gestion de maquinas virtuales.
– software de virtualizacion de aplicaciones ( muy buena la demo que vimos, ejecutando el word en modo streaming…impresionante las utilidades que se nos presentan)
– software de virtualizacion de maquinas virtuales en entorno escritorio ( Virtual PC ), y entornos servidor ( Hyper-V, Virual Server..)
y más cositas como ejecutar aplicaciones desde nuestro escritorio, instaladas en una maquina virtual dentro de nuestro pc, en un virtual pc. La verdad que es algo muy curioso, era algo como Enterprise Desktop….

Bueno, la verdad es que se muestra un panorama impresionante en entornos de virtualización entre los distintos fabricantes, creo que veremos cosas muy interesantes durante este año y los venideros…

Ahora, lo que se acaba de ver muy claro es la virtualización del escritorio, ya que albergar en el centro de datos dentro de nuestro almacenamiento todos los escritorios ( 1 maquina virtual por escritorio, claro) no parece algo barato, facil de gobernar y mantener…

nube2
Informática en la Nube …….. Cada día está mas en boca de todos los servicios online, pagos por uso, aplicaciones en modo ASP, con alquiler de uso, infraestructuras virtuales, backups remotos, virtualizacion, Arquietecturas SOA ( servicios orientados a aplicaciones) , PaaS ( plataformas como un servicio ) y un largo etc, por el cual parece que antes ó despues pasaremos por el aro.

Aplicaciones web de recursos humanos, logística, facturacion , CRM para clientes e incluso ERP´s online. Asistimos asombrados a un a un cambio de sistema de licenciamiento a un pago por uso. Externalizar nuestras infraestructuras con servidores online en la que accedemos a multitud de servicios parece que será el futuro a corto plazo de las empresas de servicios tecnológicos. Abre un mundo de posibilidades a empresas que dado su pequeño volumen no puede acceder a infraestructuras imposibles de mantener y pagar y gracias a la flexibilidad que aporta la virtualizacion y la conectividad de internet , todo parece posible.

El reto que se tiene por delante es el de afianzar la seguridad de nuestros datos “alquilados” y alojados en servidores de los cuales sabemos muy poco. Otro reto será el de autentificar a los usuarios de forma univoca que pasará por el uso de certificacion digital, dni-electronico, etc.. A todo esto crear planes de contingencia para la recuperacion y puesta en marcha ante una caida de servicio será algo que pasará a no ser controlado fisica y directamente por la empresa. Y si todo esto era poco, añadir normativas en relación a proteccion de datos.

Vaya , parece que los retos van cambiando…

Google , parece estar en buena posicion y girando en esta dirección con las aplicaciones online que cada día aumenta en servicio y portfolio. Google calendar, Google docs y otras parecen estar ganando puestos como sustitutos del calendario de escritorio de Outlook por ej. Además trabajan en la estrategio de “gratuito”… dentro de 2 años, … Dios dirá….

cloud

red

Recuerdo como si fuera ayer cuando tenía que correr por la casa con un cable de teléfono de hilos para conectarme a internet a traves de mi modem de 28800 baudios… ufff , sin tarifas planas, comunicaba el teléfono de casa y el coste era el de una llamada local a través de Infovia y estas cosas. Tambien recuerdo ver peliculas de acción americanas en las cuales se veía un portátil conectado a internet de forma inalámbirca y pensabamos que era ciencia ficción, algo así como el Delorian de Regreso al futuro 2 cuando volaba…

Las conexiones con los portátiles pasaban por conectarse a través del modem ( los que lo incorporaban) , pero esto cambió con aparecieron los móviles utilizando la red GSM. Podíamos conectar nuestro movil ( en mi caso un nokia 5110) a traves del puerto com del portátil y realizar una llamada a nuestro ISP ( Proveedor de internet ) a través de una llamada desde el móvil. Ni que decir tiene el coste que tenía y la tremenda velocidad máxima teórica de 56k… ( en el mejor de los casos 33600k y poco más…).
La cosa fue evolucionando y aparecieron redes de datos GPRS en las cuales podíamos acceder a un máximo teórico de 175kb. Algo que si alguien ha conseguido.. le felicito, ficilmente se pasaba de 40Kb/s. Aún así seguiamos tener que levantar una conexion con el móvil, eso sí, ahora disponíamos de conexiones bluetooth quitándonos la conexiones al puerto COM y estas cosas. Aún recuerdo las primeras aplicaciones para PDA que se conectaban a traves de este sistema.

Pues bien la cosa ha cambiado bastante desde que aparecieron los móviles 3G, los llamados de tercera generación. Esto no es otra cosa que la red por la cual se comunican se comunican ( a nivel de datos ) es similar en velocidad a una línea ADSL. Ahora mismo con la tecnología HSDPA y UMTS accedemos a una velocidad máxima teórica de descarga de 7 MB… algo impensable hace tiempo. Pero lo más interesante es disponer de servicios de datos de tarifa plana evitando tener que levantar conexiones con el móvil utilizando modem externos usb , tarjetas pcmcia, pdas-telefonos que integran esta tecnología, etc..

El principal escollo es que todas las operadoras dan prioridad a los servicios de voz, así que cuando la red se satura, la velocidad cae exponencialmente y en el peor de los casos, la conexion se rompe. Esperemos mejorar…
Pero cierto es… quien lo iba a decir.

Tambien tenemos tecnologías como Wimax e incluso se habla de una tecnología nueva que aportara una velocidad de 100Mb/s, pero esto es otra historia.

wifi-zone1

Cierto es y no hace tanto tiempo que muchos usuarios domésticos y empresariales incorporaban a su red un punto de acceso inalámbrico para ofrecer acceso a la red , internet, etc de forma inalámbrica. Estos mismos comenzaron a darse cuenta al “poco tiempo” que alguien sin demasiados conocimientos técnicos podía conectarse a ese punto de acceso ó router inalámbrico incorporandose a nuestra red de forma inmediata.
Pues bien, todo el mundo penso que debían establecerse medidas de seguridad para evitar esto. Pues nada, todos pensaron en poner seguridad, claro , claro… un usuario, contraseña y asunto arreglado. Algunos más avistados ocultaban el SSID del punto de acceso, aplicaban un filtrado de direcciones MAC, y algunas otras cositas y con esto claro… el sistema estaba “protegido”. Al poco tiempo esa famosa clave ( WEP ) que se empezaba a implantar se vio reventada por sencillos métodos de fuerza bruta y con una ” pequeña cantidad ” de trafico de red capturado. ( tecnias de sniffering con commview, airdump, y un largo etc.. )

Bueno, pues dicho esto esto alguien dijo, vamos a poner un método de clave más complejo: WPA , ( WPA-PSK, etc.. ) en la cual reventar una clave ya no era tan sencillo, pero tristemente si la clave es sencilla acaba por descifrarse, y salio WPA-2, ufff este ya …seguro que nadie lo rompe, pues bien, cierto es que infinitamente más seguro que WEP ( tanto en 64bit/128bit y WPA..), pero en mi opinión ,la validacion del usuario sigue basandose en contraseña definida por el usuario , que no siempre cumple unos requisitos mínimos de complejidad y sigue delegandose en un router ó punto de acceso. Esto es un pequeño repaso .. pero realmente se ha seguido esta transicion y se han ido aplicando estas medidas y actualizando las conexiones wifi a este ritmo?. Ciertamente no y tal vez porque el problema de base no se ha afrontado nunca. Queríamos seguridad a coste cero y esto es complicado. Si estas empresas hubieran optado por ej por un servidor de autenticacion RADIUS integrado en Windows Server ó entidad certificadora emisora de certificados PKI, lo hubieran tenido más facil evitando cambios de hw constantes y la problematica que supone con Servicepacks, drivers, etc. La seguridad en autentificacion y validación ya está encaminada irrevocablemente a certificacion digital.

Somos conscientes, empresas y usuarios a lo que nos exponemos cuando decidimos implantar una red Wifi ?. Lo sabemos ó no lo queremos saber , pero lo triste y preocupante es el elevadisimo porcentaje de instalaciones “securizadas” con claves wep….

En fin…… que cosas estas de la seguridad..