miércoles, 28 de diciembre de 2011

FELICES FIESTAS

miércoles, 7 de diciembre de 2011

CÓMO NO MONTAR UN CPD


En las reformas o nuevas instalaciones de cualquier empresa o entidad de cierto tamaño, ya se tienen en cuenta la ubicación de los servidores de red, electrónica, routers, centralita de teléfonos, etc. Hemos pasado de tener armarios o rack a salas o habitaciones donde se instalan los centros de cableado, los servidores y todos los elementos centralizados de las redes informáticas y telefónicas. Son los denominados CPD o centro de proceso de datos, vulgarmente llamados sala de servidores.

Hay mil recomendaciones para hacer una buena instalación en el CPD: pasillos de frío y calor, que se instalen en el interior sin que ninguna pared dé a la calle, control de accesos bien definidos, suelos técnicos para elevar los armarios o rack, en fin, por haber hay hasta cursos de formación multimedia que te enseñan a hacerlos perfectos.

Tengo dos clientes que han inaugurado sus instalaciones hace menos de dos meses y que han cometido errores de bulto:


Estas imágenes son del primero de ellos. Podemos observar que son tres rack perfectamente definidos y ordenados. No hay suelo técnico, pero hay unas canalizaciones para cubrir el cableado que los une, y lo mejor de todo es el cubo de fregona que hay en el primero de ellos. Os aseguro que no es un montaje. El problema radica en que uno de los desagües del tejado de la nave, la que conduce el agua de lluvia, atraviesa el CPD y está mal impermeabilizada, así que entra agua. Ya han mirado un par de veces por dónde pierde agua pero no dan con el truco, y el responsable de informática harto de la situación ha colocado el cubo que se puede ver para recoger el agua de lluvia.

Conclusión para arquitectos: que no pasen desagües ni tuberías de agua por encima del CPD. Algo tan de cajón para los informáticos no lo es para los arquitectos o ingenieros, al menos para el que hizo esta nave.



Otra cosa habitual de los nuevos CPD es convertirlos en cuartos trasteros. Para ello se tiene la bondad de pensar en los informáticos y hacer un CPD para que quepa una o varias mesas, armarios, estanterías, etc. y así se puedan reparar los ordenadores estropeados. Lo último que me han dicho es “al fondo de la sala pondremos un banco de montaje para que se arreglen allí los teléfonos y ordenadores que se averíen”. Ya ves, con una temperatura ambiente de unos 20 grados y con un ruido espantoso en la sala hay que entrar a reparar, configurar y dar asistencia a los usuarios.

miércoles, 26 de octubre de 2011

LOS DISCOS DUROS Y TAILANDIA


Esto de la globalización tiene sus cosas buenas, pero cuando algo falla…

Resulta que en Tailandia se han producido unas terribles inundaciones que están desolando el país. Las consecuencias sobre las personas son trágicas con centenares de muertos: Esta imagen captada por un satélite da cuenta de la situación vista desde el espacio.

Ahora sabemos que casi la mitad de la producción de los discos duros mundiales se hace en Tailandia, de forma directa o indirecta, y que las fábricas se han visto enormemente afectadas por las lluvias. Desde hace unos días los discos duros han desaparecido de las tarifas on-line de fabricantes y mayoristas en previsión del alza del precio y del desabastecimiento. La concentración de la fabricación de discos en dos marcas, Seagate y Western Digital, ha provocado aún más si cabe una crisis en este sector básico en la informática, ya que casi nadie entiende un ordenador, sea de sobremesa o portátil, sin disco duro.

Y hoy se ha confirmado el desabastecimiento con esta carta que nos han remitido desde Western Digital y la subida de precios que publica, entre otros, el diario El País. Nos espera un fin de año y principios de 2012 con fuertes subidas en todos los equipamientos informáticos, al tiempo…

jueves, 8 de septiembre de 2011

FACEBOOK, TWITTER, TUENTI Y OTRAS REDES SOCIALES. TÚ ERES EL PRODUCTO.


Las redes sociales son unos fenómenos novedosos en Internet, las tenemos hasta en la sopa y no hay persona que no haya oído hablar de ellas.

En realidad existen hace ya bastante tiempo, su definitivo impacto mediático se dio con el lanzamiento de la película “La Red Social” sobre el fundador de Facebook y llegó definitivamente a los mortales gracias a su difusión a través de los teléfonos móviles.

Y es que uno de los últimos datos que se han dado a conocer es que ya más del 50 % de los usuarios de las redes sociales ya hacen uso de ellas, únicamente, desde un dispositivo móvil, aparcando el ordenador para otros usos.

Lo que ha cambiado es el concepto: las redes sociales permiten subir fotos y vídeos, incluir enlaces de interés y ahora el mayor uso es para decir lo que estoy haciendo. Y que mejor forma que decir lo que estoy haciendo con algo que lleve encima: el teléfono móvil.

Pero claro, las redes sociales son gratis. Twitter lo usan preferentemente personas de más de 35 y hasta 50 años, cuando el límite de lo que se puede escribir son 140 caracteres, vamos un SMS. Facebook es la más extendida y hay información de todo con fotos, familia, amigos, gustos, etc. Tuenti es muy similar a Facebook pero admite menores de edad y sólo está expandida en España y algo en Sudamérica. Entonces dónde está el truco.

En que tú y yo somos el producto. Nos auto vendemos con nuestros datos personales sobre gustos, lo último ha sido situarnos en el mapa para decirles a todos dónde pasamos las vacaciones, buen negocio para las agencias de viajes. Además mantenemos actualizada la web, no paramos de escribir qué hacemos y dónde estamos y, mejor todavía, qué vamos a hacer y dónde, el sistema de eventos es buenísimo. Y cuando nací, donde vivo, quien es mi padre, mi madre, mis amigos, etc.

Así que ya sabes, mucha LOPD (protección de datos personales) e intimidad queremos, cuando estamos vendiendo gratis a las redes sociales todos nuestros datos. Y los datos correctos, y además nos encargamos de verificar y corregir los de nuestros amigos si están mal. ¡Qué buen producto y de qué calidad estás hecho!

jueves, 23 de junio de 2011

¿QUÉ ES EL OVERCLOCKING?

El lanzamiento de los procesadores Intel de segunda generación ha vuelto a poner en circulación, si cabe con más fuerza, el concepto de overclocking.


Los procesadores de segunda generación tienen un formato de cuatro cifras, tipo i3-2100, i5-2500 ó i7-2600 y se ha hecho hincapié en la letra que acompaña al algunos modelos, ya existente en varios de primera generación. La letra “S” se supone que es para procesadores equilibrados en cuanto a consumo y rendimiento y la letra “T” indica que es de bajo consumo, muy poco solicitados ambos por el púbico.

La letra “K” es la que permite overclocking, liberar la limitación de velocidad del reloj de procesador y que limita Intel de fábrica. Un símil para que se entienda es la velocidad máxima que puede alcanzar un coche. Algunos fabricantes como Audi, BMW o Mercedes, tiene modelos con velocidades punta superiores a los 300 Km. por hora, pero cuando salen de fabrica los limitan 250 Km. por hora por seguridad.

Intel, por ejemplo, en el i7-2600K ha limitado la velocidad a 3,4 Ghz. sin embargo puede alcanzar más, hasta 6,8 Ghz. por lo visto. Para poder quitar el límite de la velocidad se deben cumplir dos requisitos: que el procesador lo permita y que la placa base también. Hay varios fabricantes que tienen modelos de placas base para hacerlo. Y a los que usan el ordenador para jugar o utilizan programas con gran capacidad de procesamiento, poder poner el procesador “a tope” les encanta.

Y entonces, como diría cierto personaje mediático ¿Porqué, porqué Intel limita la velocidad? Sencillamente por el calor. Cuanta más velocidad alcanza más se calienta, de hecho si hacemos overclocking debemos prever un sistema de enfriamiento drástico por dos motivos: porque si se calienta excesivamente se quemará el procesador y porque Intel ya advierte que si esto ocurre no se incluye en la garantía.




Reza así Intel en su documentación: “Habilitar overclocking. Cuidado: alterar la velocidad y/o el voltaje del reloj reduce la estabilidad del sistema y la vida de uso del sistema y el procesador; es motivo para que el procesador y otros dispositivos del sistema fallen; causa reducciones del rendimiento del sistema; motivo de calentamiento y otros daños al sistema; y afecta a la integridad de los datos. Intel no ha testado y no garantiza el funcionamiento del procesador más allá de sus especificaciones”. Así que cuidado.

miércoles, 1 de junio de 2011

INTEL CONTRAATACA: LOS ULTRABOOKS

Desde que salieron, los tablets han ido ganando importancia en el mercado, que sumado a otros factores se ha traducido en una disminución de ventas de portátiles (más de un 25% menos en España en 2010). Esta situación ha instado a Intel a buscar nuevos conceptos de producto, y ha presentado en China (en la convención de Computex), un nuevo tipo de dispositivo que combina las propiedades de los tablets (ligero, fino y con buen diseño), con las propias de los portátiles como son el rendimiento y la versatilidad.

Estos nuevos dispositivos han sido bautizados como Ultrabooks, nombre que proviene de ultraligero y ultrafino, e Intel se ha encargado de difundir las especificaciones y los límites entre los fabricantes para lanzarlos al mercado, como un grosor máximo de 20 milímetros. Además, el rendimiento está garantizado ya que incluirán procesadores de última generación (Core I3, I5, I7), almacenamiento SSD y USB 3.0 para aprovechar al máximo sus funciones. Asus ya se ha sumado al carro con su nuevo UX21 que ya cuenta con 17 mm en su punto más grueso.
Otra de las ventajas que presenta es su consumo, que supuestamente es de un 50% menos, lo que, según Intel, se traduce en que la batería podría llegar a durar un día entero con algunos modelos, imaginamos que será dejándolo encendido con ahorros de energía y sin uso, pero sería una buena noticia para los usuarios de ser verdad.

Desde el fabricante de Hardware esperan que este nuevo dispositivo se imponga a lo largo de 2012 y que salgan combinados con los nuevos chipsets "Ivy Bridge" de Intel, previstos para el primer trimestre del citado año.

Intel también ha tenido en cuenta el precio para ser totalmente competitivos, y se espera que los Ultrabooks no superen los 1.000 dólares (690 euros).

Desde Megastar, iremos vigilando este tipo de dispositivo porque nos parece que el planteamiento es interesante, pero con cierto escepticismo sobre el calentamiento y la duración real de la batería. Llegado el momento haremos las pruebas pertinentes y subiremos otra entrada al blog con los resultados para manteneros informados sobre los nuevos Ultrabooks.

jueves, 5 de mayo de 2011

Comparativa: USB 2.0 contra USB 3.0

Hace más de un año que adelantábamos en una entrada del blog las ventajas que iba a tener en el futuro el desarrollo del esperado estándar USB 3.0. Y aunque ha tardado un año más en aparecer de lo que se esperaba por aquel entonces, poco a poco irá implantándose en el mercado hasta llegar a la popularidad que tiene ahora el 2.0 o incluso más.

En Megastar hemos realizado unas pruebas iniciales entre las 2 versiones del estándar USB con un disco duro externo y se ha podido comprobar que los resultados son apabullantes. De esas pruebas se podrían destacar dos, que exponemos a continuación.

Equipo de pruebas: Megastar I3H67

Prueba1: Copiando varios archivos (2,19GB en total) del disco duro local a un disco externo usb 2.0 tardó 37 segundos en copiar. Bajo las mismas condiciones con el dispositivo, el cable y el puerto usb 3.0 tardó tan solo 15 segundos.

Prueba2: Copiando un solo archivo (1,97GB) del disco duro local a un disco duro externo usb 2.0 tardó 80 segundos en copiar. Mientras que mediante usb 3.0 fueron 18 segundos.

La conclusión a la que podemos llegar es que el estándar USB 3.0 es entre 2 y 5 veces más rápido que el USB 2.0 en casos reales. Está optimizado para la transferencia de archivos de gran tamaño y con unas tasas de transferencia media de datos que apuntan a que, salvo gran sorpresa, desbancará al USB 2.0 como estándar más utilizado para transferencia de datos en muy poco tiempo.

lunes, 18 de abril de 2011

El futuro de las redes con IPv6


Mucho tiempo hace ya desde las primeras advertencias sobre el agotamiento de las IPs públicas disponibles en internet y que se venían asignando a los proveedores de servicios de internet por la IANA (Agencia Internacional de Asignación de Números de Internet). Esa realidad ha llegado y se ha visto acelerada por el crecimiento tecnológico de los países asiáticos. Esto implica que los proveedores ya no obtendrán nuevas IPs para asignarlas a los usuarios porque no hay más, las que tienen actualmente en uso y las que tienen en reserva son la totalidad de las IPs existentes. Por supuesto, hablamos de la versión 4 del protocolo IP, que es el que se utiliza en internet y en redes de área local actualmente a nivel global.

Como este problema se había previsto con mucha antelación, se trabajó en desarrollar un nuevo estándar y se lanzó otra versión del protocolo, la versión 6 (IPv6) que incluye cambios significativos en la forma de trabajar. Revisemos una breve lista de los cambios que conllevará el traspaso a IPv6:

- El primero y más importante ya que es el que soluciona el problema de agotamiento de IPs, ya que este estándar tiene disponibles nada menos que 340 sextillones de direcciones asignables, mientras que IPv4 tiene algo más de 4 mil millones.

- Se pasa de tener 4 grupos de 3 dígitos decimales (192.168.001.001) con 32bits de longitud, a tener 8 grupos de 4 dígitos hexadecimales (2001:0DB8:A10C:AB12:3050:0001:DF91:0204) con 128bits de longitud, lo que lo hará imposible de recordar de memoria, pero que explica porqué hay muchas más direcciones disponibles.

- Se asignará una IP a cada máquina física que se conecte a Internet de manera que habrá una dirección interna y otra externa en cada máquina (aunque realmente habrá dos internas y una externa por cada máquina), lo que probablemente obligue a cambiar las medidas de seguridad en muchas redes por el riesgo potencial que supone, pero las posibilidades de conectividad también se ven optimizadas con este sistema.

- La transición de un estándar a otro será progresiva, es decir, primero se empezará a implantar IPv6 y convivirá con IPv4 mediante mapeos, después irá ganando terreno y se extenderá hasta que se sustituya por completo en internet y en redes internas. Este proceso tendrá años de adaptación, pero se está empezando a implantar ya mismo.

Habrá que ver cómo se va extendiendo y que problemas van surgiendo de adaptación en las empresas y los proveedores, que es seguro que surgirán. Pero IPv6 es necesario y aportará la base para soluciones nuevas de conectividad que se plantean bastante interesantes.

lunes, 28 de febrero de 2011

¿Es creíble la virtualización?



¿Es creíble la virtualización? ¿Es un fenómeno desconocido fuera de la informática? Megastar junto al departamento creado de Vmegastar, os invita a conocer en profundidad dicho sistema.

Como técnico os voy a intentar aclarar las preguntas más usuales sobre la virtualización. ¿Qué es? ¿Para qué sirve? ¿Realmente es positiva para una empresa? La virtualización lleva en el mercado muchos años, aunque desde 2010 empieza a escucharse con fuerza.

¿Qué es? Comúnmente la virtualización es conocida como la manera de tener varios sistemas operativos corriendo sobre una misma máquina (PC, Servidor) de forma independiente, es tener varios ordenadores funcionando en uno solo. Más allá de esto también es uno de los más novedosos sistemas de seguridad en el ámbito de datos, un ahorro energético considerable, y fundamentalmente, un sistema en el cual el tiempo de respuesta en el caso de catástrofe informática es prácticamente inmediato y resolutivo.
¿Cuántas veces y tiempo ha durado la caída de una red informática a consecuencia del sistema operativo de servidor o del propio hardware de la red? La experiencia que hemos vivido durante varios años, implica la parada prácticamente del 100% de la empresa durante al menos 1 día (como mínimo), debiendo pasar varias semanas hasta poder tener el 100% de los servicios. ¿Crees que esto puede seguir así?

Una de las ventajas de una virtualización bien instalada, y repito bien instalada, es la posibilidad de aprovechar al máximo los recursos de un servidor (ahora más o menos se aprovecha un 30%), la posibilidad de reducir en minutos una catástrofe de alto nivel informático, aumento de velocidad en nuestra red informática y por supuesto aumentar el nivel de seguridad de nuestros datos, para es lo más importante.

Megastar, con el departamento creado para la virtualización Vmegastar, os invita sin ningún tipo de compromiso, a conocer en vivo y en directo la virtualización, y todas sus ventajas. Vmegastar se ofrece también sin ningún tipo de compromiso, a realizar una demostración de dicho sistema con vuestros sistemas que actualmente operativos.

www.vmegastar.com

jueves, 24 de febrero de 2011

REDES SOCIALES

Me ha resultado gracioso cómo explica Vanesa Monge algunas cosas de Facebook y Twitter. Los indeseables de Facebook es interesante para resolver algunas dudas que me planteáis alguno y el post sobre Twitter también tiene su gracias. Lo de la Duquesa de Alba es muy emocionante.

miércoles, 2 de febrero de 2011

Y FALLÓ INTEL

Caramba con los procesadores de segunda generación de Intel. Llevo varios días escribiendo las diferencias entre ellos y va resulta que les falla el chipset, al garete hasta mayo.

El lanzamiento de los nuevos procesadores de Intel de cuatro cifras (2600, 2500, etc.) coincidía con algunas novedades tecnológicas importantes:
Las letras de los procesadores indicaban nuevas características, por ejemplo un procesador con la letra “S” es de bajo voltaje. Pero el que más mola en el mercado es el de la letra “K” ya que permite al usuario, si la placa incorpora esta característica, cambiar la velocidad del reloj a su antojo, para que así pudiera ir más deprisa. A cambio el usuario debía tener en cuenta el sobre calentamiento y disponer de un sistema de refrigeración adecuado. Vamos lo que hace Alonso con el Ferrari, ahora necesito correr, le permito al motor que dé más revoluciones, que no necesito correr tanto que la carrera está ganada, pues le bajo las revoluciones para que sufra menos.

Y se ha aprovechado el lanzamiento para potenciar los nuevos USB 3.0 y los SATA3 de 6.0Gbps, todo para que el ordenador vaya más deprisa. Estos nuevos interfaces parecen ser los que nos van a sacar del problema, que es el siguiente:

El procesador del ordenador, esos que se llaman i3, i5, i7, etc. se comunica con el resto de partes del ordenador a través del chipset. Cuando el procesador necesita algo del disco duro, la RAM o la tarjeta gráfica se lo pide al chipset, éste se lo solicita al que corresponda y se lo reenvía al procesador. El chipset debe ir acorde al tipo de procesador o procesadores, por eso para los nuevos procesadores de segunda generación se diseñaron chipset específicos: el G67 y el H67. Pues a los amigos del 67 no les ha gustado tener que comunicase con algunos dispositivos, concretamente el SATA2 (este es el canal del 95 % de los discos duros actuales y del 80 % de los DVD), sólo se lleva bien con el SATA3, el nuevo.
Y en éstas estamos, parece ser que hasta mayo no van a estar los nuevos chipset G67 y H67, que serán la versión 2.0 supongo. Mientras tanto seguiremos con los procesadores anteriores ya que la experiencia me dice que si el error del SATA2 es el que ha transcendido, es que hay algo más. De momentos fabricantes como ASUS que ya se hacen cargo del error y han publicado información, pero todavía costará subsanar el error y ¿Quién se hará cargo de los costos?