El debate sobre la temperatura del centro de datos - inteligenciaes

El debate sobre la temperatura del centro de datos

[ad_1]

Aunque nunca fue articulado directamente por ninguna autoridad del centro de datos, la práctica predominante en torno a estas instalaciones críticas a menudo ha sido “Cuanto más frío, mejor”. Sin embargo, algunos fabricantes líderes de servidores y expertos en eficiencia de centros de datos comparten la opinión de que los centros de datos pueden funcionar mucho más calientes que en la actualidad sin sacrificar el tiempo de actividad y con un gran ahorro tanto en los costos relacionados con la refrigeración como en las emisiones de CO2. Un fabricante de servidores anunció recientemente que su rack de servidores puede funcionar con temperaturas de entrada de 104 grados F.

¿Por qué siente la necesidad de ir más allá? La infraestructura de refrigeración consume mucha energía. Este sistema, que funciona las 24 horas del día, los 7 días de la semana, los 365 días del año, consume mucha electricidad para crear el entorno informático óptimo, que puede oscilar entre 55 y 65 grados F. (El rango “recomendado” actual de ASHRAE es 18-27 C o 64,4 grados F hasta 80,6 grados F)

Para lograr eficiencias, varios usuarios finales influyentes están ejecutando sus centros de datos de manera más cálida y están aconsejando a sus contemporáneos que sigan su ejemplo. Pero el proceso no es tan simple como subir el termostato de su hogar. Estos son algunos de los argumentos y consideraciones clave:

Posición: el aumento de la temperatura de entrada del servidor generará importantes ahorros de energía.
Argumentos para:
o Sun Microsystems, un destacado fabricante de hardware y operador de centros de datos, estima un ahorro del 4% en los costos de energía por cada aumento de un (1) grado en la temperatura de entrada del servidor. (Miller, 2007)
o Un ajuste de temperatura más alto puede significar más horas de “enfriamiento gratuito” posible a través de economizadores del lado del aire o del lado del agua. Esta información es especialmente convincente para un área como San José, California, donde las temperaturas del aire exterior (bulbo seco) son de 70 grados F o menos durante el 82% del año. Dependiendo de la geografía, los ahorros anuales de la economización podrían exceder las seis cifras.
Argumentos en contra:
o La infraestructura de enfriamiento tiene ciertos puntos de ajuste de diseño. ¿Cómo sabemos que el aumento de la temperatura de entrada del servidor no resultará en una falsa economía, lo que provocará un consumo adicional innecesario en otros componentes como los ventiladores, las bombas o los compresores del servidor?
o El enfriamiento gratuito, si bien es excelente para los nuevos centros de datos, es una propuesta costosa para los existentes. Toda la infraestructura de enfriamiento requeriría una reingeniería y podría tener un costo prohibitivo e innecesariamente complejo.
o Los costos de fallas de equipos relacionados con la temperatura o el tiempo de inactividad compensarán los ahorros obtenidos de un punto de ajuste de temperatura más alto.
Posición: el aumento de la temperatura de entrada del servidor complica la fiabilidad, la recuperación y las garantías del equipo.
Argumentos para:
o El aire de entrada y el aire de salida se mezclan con frecuencia en un centro de datos. Las temperaturas se mantienen bajas para compensar esta mezcla y para mantener la temperatura de entrada del servidor dentro del rango recomendado por ASHRAE. El aumento de la temperatura podría agravar los puntos críticos ya existentes.
o Las temperaturas frías proporcionan una envoltura de aire frío en la habitación, una ventaja en el caso de una falla del sistema de enfriamiento. El personal puede tener más tiempo para diagnosticar y reparar el problema y, si es necesario, apagar el equipo correctamente.
o En el caso del servidor de 104 grados F, ¿cuál es la probabilidad de que todos los equipos, desde el almacenamiento hasta las redes, tengan confiabilidad? ¿Todas las garantías seguirían siendo válidas a 104 grados F?
Argumentos en contra:
o El aumento de la temperatura del centro de datos es parte de un programa de eficiencia. El aumento de temperatura debe seguir las mejores prácticas en la gestión del flujo de aire: usar paneles ciegos, sellar los cortes de los cables, eliminar las obstrucciones de los cables debajo del piso elevado e implementar alguna forma de contención de aire. Estas medidas pueden reducir eficazmente la mezcla de aire caliente y frío y permitir un aumento de temperatura práctico y seguro.
o El servidor de 104 grados F es un caso extremo que fomenta la discusión reflexiva y la investigación crítica entre los operadores del centro de datos. Después de su estudio, quizás una instalación que alguna vez operó a 62 grados ahora opera a 70 grados F. Estos cambios pueden mejorar significativamente la eficiencia energética, sin comprometer la disponibilidad o las garantías de los equipos.
Posición: los servidores no son tan frágiles y sensibles como podría pensarse. Los estudios realizados en 2008 subrayan la resistencia del hardware moderno.
Argumentos para:
o Microsoft ejecutó servidores en una tienda en el húmedo noroeste del Pacífico desde noviembre de 2007 hasta junio de 2008. No experimentaron fallas.
o Usando un economizador del lado del aire, Intel sometió 450 servidores de alta densidad a temperaturas de hasta 92 grados y rangos de humedad relativa de 4 a 90%. La tasa de fallas del servidor durante este experimento fue solo marginalmente más alta que la de las instalaciones empresariales de Intel.
o Los centros de datos pueden operar con una temperatura en los 80 y aún así cumplir con ASHRAE. El límite superior de su rango de temperatura recomendado aumentó a 80,6 grados F (en comparación con 77 grados F).
Argumentos en contra:
o Las altas temperaturas, con el tiempo, afectan el rendimiento del servidor. La velocidad del ventilador del servidor, por ejemplo, aumentará en respuesta a temperaturas más altas. Este desgaste puede acortar la vida útil del dispositivo.
o Los estudios de gigantes de los centros de datos como Microsoft e Intel pueden no ser relevantes para todas las empresas:
o Su enorme espacio en el centro de datos es más inmune a una falla ocasional del servidor que puede resultar de un calor excesivo.
o Pueden aprovechar su poder adquisitivo para recibir garantías chapadas en oro que permiten configuraciones de temperatura más altas.
o Lo más probable es que estén actualizando su hardware a un ritmo más rápido que otras empresas. Si ese servidor se agota por completo después de 3 años, no es gran cosa. Una empresa más pequeña puede necesitar que el servidor dure más de 3 años.
Posición: Las temperaturas de entrada más altas pueden generar condiciones de trabajo incómodas para el personal y los visitantes del centro de datos.
Argumentos para:
o Considere el bastidor de 104 grados F. El pasillo caliente podría estar en cualquier lugar entre 130 ° F y 150 ° F. Incluso el extremo superior del rango operativo de ASHRAE (80,6 ° F) daría como resultado temperaturas de pasillo caliente de alrededor de 105-110 ° F. El personal que da servicio a estos bastidores soportaría condiciones de trabajo muy incómodas. .
o En respuesta a temperaturas más altas, la velocidad del ventilador del servidor aumentará para disipar más aire. El aumento de la velocidad del ventilador aumentaría el nivel de ruido en el centro de datos. El ruido puede acercarse o exceder los límites de sonido de OSHA, requiriendo que los ocupantes usen protección para los oídos.
Argumentos en contra
o No hace falta decir que a medida que aumenta la temperatura de entrada del servidor, también lo hace la temperatura del pasillo caliente. Las empresas deben equilibrar cuidadosamente la comodidad de los trabajadores y los esfuerzos de eficiencia energética en el centro de datos.
o No todos los entornos de centros de datos tienen un gran volumen de usuarios. Algunas aplicaciones de alto rendimiento / supercomputación operan en un entorno de iluminación apagada y contienen una colección homogénea de hardware. Estas aplicaciones son adecuadas para puntos de ajuste de temperatura más altos.
o La definición de centro de datos es más fluida que nunca. La instalación tradicional de ladrillo y cemento puede agregar potencia informática instantánea a través de un contenedor de centro de datos sin un proyecto de construcción costoso. El contenedor, separado del resto del edificio, puede operar a temperaturas más altas y lograr mayores eficiencias (algunos productos de enfriamiento de acoplamiento cerrado funcionan de manera similar).
Conclusiones

Lee mas  Cómo la formación de AWS es útil para las empresas

El movimiento para elevar las temperaturas de los centros de datos está ganando terreno, pero enfrentará oposición hasta que se aborden las preocupaciones. La confiabilidad y la disponibilidad están en la cima del plan de desempeño de cualquier profesional de TI. Por esta razón, la mayoría hasta la fecha han decidido equivocarse por el lado de la precaución: mantenerlo fresco a toda costa. Sin embargo, las temperaturas más altas y la confiabilidad no son mutuamente excluyentes. Hay formas de proteger sus inversiones en el centro de datos y aumentar la eficiencia energética.

La temperatura es inseparable de la gestión del flujo de aire; Los profesionales de los centros de datos deben comprender cómo circula el aire, ingresa y atraviesa sus racks de servidores. La dinámica de fluidos computacional (CFD) puede ayudar al analizar y trazar el flujo de aire proyectado en el piso del centro de datos, pero como el equipo de enfriamiento no siempre funciona según las especificaciones y los datos que ingresa pueden pasar por alto algunas obstrucciones clave, el monitoreo y los ajustes en el sitio son requisitos críticos para asegúrese de que sus datos y cálculos de CFD sean precisos.

Los centros de datos con exceso de refrigeración son entornos privilegiados para elevar el punto de ajuste de temperatura. Aquellos con puntos calientes o enfriamiento insuficiente pueden comenzar con soluciones de bajo costo como paneles ciegos y ojales. Las estrategias de enfriamiento y contención de acoplamiento directo son especialmente relevantes, ya que el aire de escape del servidor, que a menudo es la causa de los desafíos térmicos, está aislado y tiene prohibido ingresar al pasillo frío.

Lee mas  ¿Cuál es la necesidad de la certificación ágil en el presente?

Con el flujo de aire dirigido, los usuarios pueden concentrarse en encontrar su “punto óptimo”, el ajuste de temperatura ideal que se alinea con los requisitos comerciales y mejora la eficiencia energética. Encontrarlo requiere una medición y un análisis proactivos. Pero las recompensas (facturas de energía más pequeñas, una mejor huella de carbono y un mensaje de responsabilidad corporativa) bien merecen el esfuerzo.

[ad_2]

Leave a Comment