Hardware


placa
Recientemente he vivido una parada del sistema en una empresa muy cercana.

Defino parada del sistema: Un servidor con los roles de controlador de dominio, servidor de ficheros, servidor de correo exchange, servidor de base de datos de un ERP, aplicación de control horario de fichajes, servidor de BlackBerry…y alguna otra cosilla “sin importancia.” Este servidor se rompió la placa base y se encontraba fuera de garantía.
Situación: 30 usuarios fuera de servicio. Tipicas frases::: pero , como puede pasar esto, el servidor tiene 2 fuentes de alimientacion , discos duros en RAID 5.. y se ROMPE…. pero, pero… , pero … y ahora..
Cuanto tiempo estaremos parados? y el correo?, y… no podemos facturar claro?

La respuesta es clara. NO estamos preparados para la continuidad, alguien dijo que habría que invertir en un plan de contingencias, soluciones de redundancia, datos fuera de las oficinas…. Bueno, se tuvo que oir: Eso es carísimo, eso es para las empresas grandes, nosotros tenemos un servidor con redundancia…

Parece que la PYME no ve, ni quiere ver lo que supone una parada de sus sistemas y el incalculable valor que supone una situación como esta.
Pero hay algo más dramático aún y es que NO SE APRENDE. Los mismos errores que se cometieron al crear esa infraestructura se vuelven a cometer. Se vuelve a adquirir un servidor similar, todos los roles en una misma máquina física, falta de documentación y rigor, y se vuelve a montar todo de la misma forma y manera que se tenía antes del desastre.

Es decir la empresa que lleva “parada ” casi una semana para volver a poner todo en pie y todavía no lo ha conseguido al 100%, sigue sin aprender de sus errores.

Sin lugar a dudas el coste de los técnicos, la imagen ante empleados y clientes cuando les dices que no funciona las máquinas, como puede evaluarse en coste. Cuando los empleados no paran de llamar a sistemas porque las cosas no van como antes, porque no tienen permisos, porque no pueden imprimir y un largo etctera que no termina nunca. Verdaderamente esto es más barato que preparar una estructura de un cluster con almacenamiento y backup remoto , u otro servidor con los mismos servicios con actualizaciones de datos permanentes ?. Sinceramente NO.

Me pregunto si la ISO 27001 y derivados conseguirán concienciar algun dia a directivos , socios y técnicos en ser realmente conscientes en invertir tiempo y dinero en verdaderas infraestructuras redudantes preparadas para la continuidad definidas en tiempo y forma , ayudados de ensayos, pruebas con datos reales,etc. Pero claro… parece que esto es perder el tiempo y algo innecesario. Que sin sentido verdad?

Saludos para todos,

mail

Entre ayer y hoy he vivido un “episodio” con una maquina multifuncional HP Color. Y es que cuando uno se compra una multifuncional, claro, quiere hacer de todo. Cierto es que analiza hojas de producto, webs, comparativas, etc.. y al final asesora a un cliente ó a si mismo para obener el producto adecuado.

Uno busca, imprimir, copiar, fax, escanear…. y claro pequeñas funciones que nos alivien las necesidades diarias como puede ser escanear una ó varias páginas y mandarlo directamente a nuestro buzón de email en pdf. Pues bien, con estos retos por delante escogemos una máquina que cumpla todos nuestros requisitos. A esto añadimos costes de impresion , velocidad, conectividad en red para trabajo en grupo etc..

Pues nada, tiramos de web , hojas de producto y escogemos el modelo ideal en el cual se especifican todos nuestros deseos.
Bien, nos ponemos en marcha y la parte del escaneado me doy cuenta que en la configuracion del servidor SMTP, no se admite un servidor que requiera auntentificación. .Como ? , que me estas contando?, Pues sí, LO QUE OÍS. Es una máquina que envia pdf por email, pero con la salvedad de que solo soporta servidores de correo sin autentificación SMTP.
En los dias que corren en referencia a seguridad y Spam , es lícito , moral y legal que una empresa como HP desde su servicio técnico nos comunique que busquemos un servidor SMTP sin autenticación ó que se la quitemos en nuestro dominio.

Me parece vergonzoso y que deja mucho que desear por parte de la marca. Señores , estamos en marzo del 2009 y no podemos enviar un email?. Hay mucho que cambiar… esto es una pena.

procesador2pl9
Desearos a todos un feliz 2009 ya que es el primer post del año. Espero que podamos aprender mucho entre todos. Os animo a que hagáis comentarios de cada articulo pinchando en en link comentarios….
Veo en los últimos tiempos que los fabricantes de procesadores han entrado en la carrera de ver quien hace un procesador con una mayor número de núcleos. Carrera muy similar a la que hace no mucho se hizo con los Mghz.. “Cuanto más mhz más procesamiento…”.
Pues bien, parece que nos estamos olvidando de la arquitectura básica que compone un ordenador. Memoria, unidad lógica, unidad de control, bus de datos..
Recordareis la fama que se creó con los sistemas operativos multitarea, resumiendo eran capaces de ejecutar varias tareas en el mismo instante de tiempo. Realmente no es así , pero nos lo parece, ya que las cpu se basan en un “reloj” para poder pasar de ejecutar una instrucción a otra y no se ejecutan simultaneamente a no ser que tengamos varios procesadores con un ciclo de reloj cada uno. Esto es llamado Multiprocesamiento. Si somos capaces de asignar la ejecución de un proceso a cada procesador tendremos 2 tareas ejecutandose en el mismo instante de tiempo. Bien, analizado esto pensemos … vamos a desarrollar un procesador con N procesadores y cada uno le asignamos un proceso. La idea es suculenta , pero aquí surgen mis observaciones:

– Seguimos teniendo una única memoria compartida por todos los procesadores en la que los accesos a la misma se verá deteriorado por las peticiones de los n procesadores.
– El bus de datos del sistemas es único, así que esos procesos que traten datos tendrán que acceder al mismo.
– El acceso a dispositivos del sistema ( tarjeta grafica, sonido, etc.. ) se verá perjudicado el multiacceso a los mismos.
– Para aplicaciones de virtualizacion, mejorará el procesamiento , pero el acceso a disco y la memoria será perjudicado

Y a todo esto, un sistema operativo capaz de “manejar” de forma eficiente este entramado. Tambien tener en cuenta que las aplicaciones deben soportar el multiprocesamiento en su codigo, tanto en forma de hebras, hilos, etc..
No sería mas interesante pensar en mejorar el rendimiento de la arquitectura del sistema ( 32 / 64 /128 bits..), los accesos a memoria, buses, e investigar en el multiproceso y no en el multiprocesamiento ?.
Ya existen opiniones por las cuales se advierte que más de 8 nucleos no mejora para nada el rendimiento del sistema…

esata3gbps_logo1
Parece ayer cuando los ordenadores empezaron a incorporar los conectores USB, después aparecieron con USB frontales y con la salida de XP SP1 ( distribuciones Linux aparte…) , ya podiamos disfrutar de la segunda version de USB , es decir USB 2.0. Todos empezamos a notar el enorme salto de velocidad al traspasar nuestas fotos digitales, mp3 y datos a nuestros equipos. USB 2.0 nos ofrecía una velocidad de transferencia teórica de 480Mb/sg. En la realidad, la velocidad era mucho inferior, pero el salto era notable.
Los tiempos avanzan y esta conexion se nos queda corta en velocidad para transpasar multitud de ficheros que pueden superar Gb de capacidad. Las peliculas, nuevos formatos de video ( Full HD..) y otras muchas aplicaciones y usos demandan VELOCIDAD…

Pues bien, aparte de la nueva version de USB 3.0 (4,8Gb/s) que no tardará en salir a la luz en breve, en equipos de última generacion ya observamos una nueva conexion, eSATA. Esta nueva interface viene a paliar la deficiencia de USB 2.0 ofreciéndonos una velocidad teórica de 3Gb/s…..casi nada. Cierto es que en la realidad, segun lo que he visto en algunas pruebas , se han alcanzado muchos Mb/s, pero muy lejos de esos Gb.. Pero bueno, más alla de estos números , la realidad es que la velocidad crece enormemente y eso es lo importante.
La realidad es que el cambio no es rápido, ya que los usuarios tardaran en tener esta conexion en sus equipos , a no ser que sea comprado en este ultimo año y después que se estandarize con lo han hecho los pendrive. Cierto es, que ya hay un modelo de pendrive en eSATA ( OCZ Throttle eSATA) en cuyas pruebas se han obtenido unas tasas reales de 90Mb/s, en lectura lo cual es destacable…

Os dejo unas imagenes de este tipo de conexiones por si no las conocéis:
www.satacables.com/assets/images/new-244.jpg

Este año 2009 será importante en el despliegue de este tipo de dispositivos. Muy interesante para discos duros externos en los cuales almacenamos volumenes de datos muy importantes, como pueden ser máquinas virtuales en las cuales el aumento de rendimiento es muy notable a los actuales USB 2.0 ó las conexiones Firewire, que pasarán a mejor vida.
Muy atentos este año… y ya veremos en que queda esta disputa entre USB 3.0 y eSATA…