[Valid Atom 1.0] OCIO DE VICTOR: Fallas en el hardware de un millon de ordenadores

jueves, 28 de junio de 2012

Fallas en el hardware de un millon de ordenadores


Estudiar por qué un ordenador falla puede presentar algunos casos aislados muy interesantes, pero nunca ha habido un análisis general sobre los problemas más recurrentes, y el tiempo promedio en el cual se puede esperar la aparición de una falla de hardware. Desde hace un tiempo, está publicado en la Web un artículo relativamente oscuro creado por miembros de Microsoft Research, en el cual analizan de forma empírica las fallas de un millón de ordenadores de consumo en un período de ocho meses. Algunos de los resultados están dentro de lo esperado, pero otros, llaman mucho la atención.

El overclocking puede incrementar en gran medida la posibilidad de fallas



Prácticamente no hay términos de negociación frente a una falla de hardware. El ordenador se queda congelado, estático, y con un poco de suerte puede evitar la pérdida de datos, o arrojar un mensaje de error en un idioma crípitico que no sirve de nada para el usuario promedio. Anticipar una falla de hardware en un ordenador puede ser extremadamente complicado. Cada ordenador es un mundo, y las condiciones de uso varían drásticamente de un sistema a otro. Por esta razón, realizar un análisis sobre fallas de 


hardware que alcance a cientos de miles de sistemas representa todo un desafío. En ocasión de la conferencia EuroSys 2011, representantes de Microsoft Research enfrentaron ese desafío, y publicaron el documento: “Ciclos, Celdas y Platos: Un Análisis Empírico de Fallas de Hardware en un Millón de PCs de Consumo”. El análisis, compuesto por 14 páginas en formato PDF, posee un alto nivel técnico, por lo que no se puede considerar “lectura liviana”. Sin embargo, los elementos más importantes del mismo saltan rápidamente a la vista, y algunas de las conclusiones incluso nos toman por sorpresa. 


De acuerdo al análisis, las portátiles tienen mayor resistencia a las fallas de hardware, aunque el artículo no contempla que las reparaciones pueden ser más complejas y costosas




Comencemos por el hecho de que apenas se presenta una falla de hardware, la posibilidad de que dicha falla aparezca nuevamente se incrementa en dos órdenes de magnitud. A modo de ejemplo, un sistema que lleva cinco días encendido tiene una posibilidad entre 470 de sufrir una falla en el subsistema de discos, pero una vez que la falla se hace presente, las posibilidades cambian a una en 3.4. El análisis también revela que la práctica del overclocking aumenta notablemente las chances de falla. Un ordenador operando en condiciones normales puede tener una falla a una relación de 1 en 400, mientras que con overclocking, los números son de 1 sobre 21. En la dirección opuesta, aquellos sistemas que poseían cierto grado de “underclocking”demostraron una mayor resistencia a fallas (1 sobre 460 frente a 1 sobre 330 en operación normal). Otros datos nos muestran que los ordenadores “de marca” tienden a ser más resistentes que los clones, en especial sobre el campo de las memorias. Allí, una memoria validada en un sistema de marca revela una chance sobre 2,700 de fallar, cuando entre los clones es de 1 sobre 970. El dato que probablemente sea el más llamativo en el análisis es el que revela una mayor resistencia de las portátiles frente a los ordenadores de escritorio. Una portátil tiene entre 25 y 60 por ciento menos de posibilidades de fallar frente a sistemas convencionales, algo que se atribuye a ciertos elementos redundantes en su fabricación, destinados a tolerar en diferente medida el trato recibido de los usuarios.


No quedan dudas de que el estudio fue muy difícil de llevar a cabo, y sus creadores debieron enfrentar serias limitaciones. En primer lugar, el análisis dependió en gran medida del sistema de Reporte de Errores de Windows, el cual sólo entra en acción una vez que el error ha interrumpido el funcionamiento del sistema (hay varias fallas de hardware que no detienen al ordenador), y que por supuesto abarca a un solo sistema operativo. También está el detalle de que la naturaleza de la informática de consumo bloquea el acceso a una recolección de información más precisa. Mientras que los entornos de servidores son mucho más controlados y poseen parámetros de mantenimiento más definidos, sucede exactamente lo contrario entre los ordenadores convencionales. Entonces, ¿por qué fallan los ordenadores “de consumo”? Porque usan componentes más baratos en comparación con servidores, trabajan en entornos(mucho) más agresivos, están sometidos a mayor estrés, reciben más polvo, y están expuestos a ciclos de energía mucho más frecuentes, entre otras cosas. Y la peor parte es que, tarde o temprano, esto se cumple. Si quieres saber más, no tienes problemas con el inglés, y no te intimida la presencia de una ecuación o dos, tienes el enlace más abajo.


FUENTE: neoteo.com

Si te gustó el artículo danos un me gusta y compártelo
Related Posts Plugin for WordPress, Blogger...

LO MAS VISTO EN YOUTUBE