JanWiersma.com

Datacenter temperatuur & ARBO

Naar aanleiding van mijn blogs over temperatuur verhoging (recent en in het verleden) en presentaties die ik daar over gegeven heb, kreeg ik vragen over de nieuwe omgevings condities en of je daar in wel mag werken.

hp-hot-tubDe vraag: als de inlet temperatuur van servers naar 27C of hoger gaat (in de koude gang), dan word de achter kant (warme gang) wel heel erg warm (40+). Daar kan ik dan niet fatsoenlijk meer werken zonder een zwembroek.

Toen ik in 2007 verantwoordelijk werd voor o.a. het beheer van een datacenter, heb ik door een ARBO dienst een onderzoek laten uitvoeren naar de werkomstandigheden in een datacenter. Voor de temperatuurs condities was het volgende grof weg het antwoord:

Met de invoering van het arbobesluit in 1997 werd de zogenoemde PMV-index gelanceerd. Deze index is de uitkomst van een uiterst ingewikkelde berekening die allerlei zaken meeneemt: temperatuur, luchtvochtigheid, luchtsnelheid, kleding en te verrichten werkzaamheden.
De stelling is vervolgens dat het binnenklimaat behaaglijk is als de PMV-index tussen de 0,5 en -0,5 ligt of als minder dan 10% van de werkzame personen klachten over het klimaat meer zal hebben. Een overschrijding van deze normen gedurende 10% van de werktijd wordt overigens acceptabel gevonden. Het probleem is dat deze officiële norm heel ingewikkeld in elkaar zit: het vraagt een hoop meet- en rekenwerk.

Als je naar de onderliggende onderzoeken en documenten kijkt, zien we dat boven de 26C spraken is van extra belasting. Die grens word vooral bepaald door de lichamelijke inspanning van het werk. Zo is bij licht kantoor werk 30C de grens en bij zware lichamelijke inspanning 25C. Ook maakt het uit of er een voelbare luchtstroom is. Deze zorgt namelijk voor verlaging van de gevoelstemperatuur. Boven de grens moet de werkgever inspanningen doen om de belasting te verlagen. Dit kan zijn door korter werken, zo kort mogelijk aaneengesloten werken, pauzeren in koele ruimtes, aangepaste kleding, extra ventilatie, veel (sportdrank) drinken.

Als we naar de datacenter omgeving kijken zien we dat deze temperatuur grens al snel gereikt word, ook in een traditionele omgeving. Neem een omgeving met server inlet temperatuur van 21C en blade servers met een delta T van 15C (verschil tussen voor en achter kant), dan komen we op 36C in de warme gang.

Bij temperaturen hoger dan 26C in het datacenter, dienen we dus rekening te houden met speciale eisen voor de arbeidsomstandigheden. Bij hogere temperaturen dan in de traditionele omgevingen zal dit leiden tot aanvullende maatregelen maar niet een (wettelijke) onwerkbare situatie.   

Let wel: bij werken in het datacenter word je bloot gesteld aan tal van omgevings factoren. Denk hier bij aan lawaai van server ventilatoren en koeling, het ontbreken van daglicht, aanwezigheid van zware stroom voorzieningen (400v) en aanwezigheid van zware machines (kg). Temperatuur is slechts 1 onderdeel. Welke maatregelen precies gewenst zijn moet per geval worden bekeken door deskundigen, bijvoorbeeld door een arbeidshygienist van de arbo-dienst.

Meer:

Share

Datacenter temperatuur–revisited

In 2009 schreef ik een uitgebreid stuk over datacenter temperatuur. De afgelopen jaren heb ik dit onderwerp ook diverse keren behandeld op congressen. Gezien de ontwikkelingen op dit gebied de laatste maanden; tijd voor een update.

Algemeen kunnen we stellen dat computer apparatuur best wel wat kan hebben. Kijk eens naar de PC die ergens onder je bureau al jaren trouw staat te draaien. Als we die open maken zitten ze meestal vol met stof. Ook is de lucht circulatie meestal niet al te best, zo weg gestopt tussen allemaal spullen. Als we naar game consoles kijken zien we dat hardware helemaal veel kan hebben. De uiterst krachtige PlayStation 3 of XBOX 360 zijn uitgevoerd met een kleine ventilator en weg gestopt in een kastje onder de TV. Zo gaf ook James Hamilton (Amazon) aan in 2010:

[youtube=http://www.youtube.com/watch?v=kHW-ayt_Urk&w=448&h=252&hd=1]

(Bedoelde stuk vanaf 20min:15sec, de rest van de video is ook erg de moeite waard overigens…)

De hoofd reden om koeling toe te passen in het datacenter zijn de eisen van de IT hardware leverancier. Deze eisen zijn terug te vinden in de garantie voorwaarde. Zodra je buiten de aangegeven bandbreedte opereert, vervalt je garantie. De vraag is hoe groot de veiligheids marge is die door de advocaten van de hardware leverancier is ingebouwd. Mensen, zoals Christian Belady, die in de ontwikkeling van hardware hebben gewerkt merkten al eerder op:

As a former server designer, I know that server vendors “sandbag” their hardware. Sandbagging refers to the practice of knowing you can do more but holding back to hedge your risks; in reality, I believe that manufacturers can take greater risks in their operating environments and still achieve the same reliability levels.

Verandering aan de horizon.TC99_Books_Staggered_Large_2

ASHRAE is altijd aardig richting gevend geweest als het aankomt op datacenter temperatuur. Vooral hun Technical Committee (TC) 9.9 (Mission Critical Facilities, Technology Spaces and Electronic Equipment), is een bonte verzameling aan datacenter specialisten, eind gebruikers en hardware leveranciers die bepalend zijn voor een aantal ‘standaarden’ binnen de datacenter industrie.

TC9.9 heeft een bonte verzameling aan boeken gepubliceerd, waar onder “Thermal Guidelines for Data Processing Environments”. In dit boek word ook de bandbreedte voor datacenter temperatuur behandeld, en de inhoud word door alle grote IT leveranciers onderschreven. In de eerste editie van dit boek was de grens op 25C voor de inlet-temperatuur gesteld. In 2008 kwam er een update waarbij de grens op 27C gesteld werd.

Versie 3 komt over een aantal dagen (begin maart 2011) beschikbaar en hier in zal de bandbreedte weer opgerekt worden. Wederom ondersteund door alle grote IT leveranciers. Zoals het persbericht vermeld, word naast de hogere temperatuur er ook rekening gehouden met (oudere) legacy systemen die dit niet ondersteunen.

The third edition will be equally groundbreaking in that it will enable compressorless cooling (all cooling through economizers) in many applications.  Accomplishing this has been a challenge since major tradeoffs (equipment size, equipment cost and operating cost) surface above a certain temperature threshold.  This challenge is complicated because the threshold is not the same for all the manufacturers.

“Different locations, applications and business philosophies make it ineffective to force all equipment to be capable of the same high temperature tolerance (in some cases higher thresholds would negatively impact the return on investment),” Beaty said. “To address this, the third edition creates multiple server classes and therefore provides freedom of choice.  This is particularly important since the thermal guidelines are used throughout the world.”

Deze update door TC9.9 is ook duidelijk een antwoord op de groeiende trend bij grotere datacenter eigenaren om zelf de temperatuur grenzen op te zoeken. Yahoo nam deze stap al in hun

‘Yahoo Computing Coop’ waarbij men volledig passief koelt en hogere temperaturen gebruikt. eBay nam samen met DatacenterPulse dit nog een stap verder door een datacenter in Phoenix te bouwen, met een gemiddelde van 38C in de zomer, en deze volledig van vrije koeling te voorzien. Ook hierbij werden hogere temperaturen voor de IT systemen gebruikt.

Buiten de grenzen.

Veel van de innovatieve ideeën komen door het denken buiten de bestaande oplossingen en vooral jezelf af te vragen waarom dingen zijn zoals ze zijn. Als we zien dat hogere temperaturen en bijvoorbeeld stof maar een marginaal effect heeft op de beschikbaarheid van het systeem en we zien dat er grote winsten te halen zijn door anders (of niet) te koelen zou je een radicale stap kunnen nemen: je systemen buiten de garantie grens laten draaien.

Zodra je buiten de grens komt (nu meestal 35C), vervalt je garantie. Dit betekend dat je niet meer bij de leverancier kunt aankloppen als je systeem stuk is. Als je echter zelf een paar extra systemen op de plank legt ter vervanging van je defecte systeem, is je probleem ook snel opgelost. Daarnaast kun je met de leverancier onderhandelen over een inkoop korting voor deze systemen aangezien je de garantie niet nodig hebt. Zoals eerder gezegd kent de garantie voorwaarde een hele grote veiligheids marge en blijken systemen een stuk robuuster.

Dit idee is een kwestie van kosten en risico berekening.

Integratie en meten

Extreme temperatuur of niet, het goed meten en vastleggen van de (inlet) temperaturen in het datacenter is een must. Dit geeft je inzicht in de effecten van het verhogen van de temperatuur en het totale warmte beeld dat dit oplevert voor je datacenter.

Ondanks het feit dat bijvoorbeeld server systemen tegenwoordig een garantie grens kennen van 35C, heb ik diverse discussies met engineers van grote IT leveranciers gehad over het feit dat het ‘te warm’ zou zijn in een datacenter dat afgeregeld was rond de 25C. Het goed meten en vastleggen van temperatuur kan je dus ook redden in dit soort garantie discussies.

Voor de ontwerpen van Yahoo en eBay zien we dat men maximaal steunt op de integratie tussen IT systemen en het fysieke datacenter. Door deze keten goed op elkaar af te stemmen kan de echte winst gehaald worden. Denk hierbij aan de discussie: als de temperatuur omhoog gaat –> gaat de server fan harder draaien, waar door de energie afname om hoog gaat (zi
e vorige blog
). De oplossing hier voor word dus niet alleen gezocht in fan-less server ontwerpen maar vooral in de integratie tussen de keten delen.

Warm is best wel eng…

Van ASHRAE mogen we al enige tijd hoger dan 21C. Ook de leveranciers voorwaarde staan ons niet in de weg om hoger te gaan. Daarnaast zijn er diverse onderzoeken die zelfs laten zien dat het nog veel extremer kan met 35C+. De realiteit is dat maar weinig datacentra echt naar hogere temperaturen gaan; de meeste blijven hangen rond de 20 – 22C.

Ik kan me voorstellen dat bedrijven zich niets aan trekken van een ‘groen imago’ of ‘maatschappelijk verantwoord zijn’. Door hun ICT-ers en facilitair personeel echter niet te stimuleren om te kijken naar datacenter temperatuur en het verhogen daar van laten deze bedrijven financiële besparingen liggen. En dat is toch iets was aantrekkelijk moet zijn voor elke organisatie in deze tijd van economische crisis…

Meer:

Share

Chill Off 2 updates & video’s

In aanloop naar het bekend maken van de resultaten van de DatacenterPulse Chill-off 2, worden er dagelijks video’s gepubliceerd over de achtergrond en het test proces.

Koeloplossingen voor datacentra kennen vele uitvoeringsvormen. Lucht- of waterkoeling, afsluiting van warme of koude gangen, vrije koeling, koelmiddel of water zijn enkele van de mogelijkheden die een datacentereigenaar voorliggen bij bouw of verbouwing. De leveranciers van deze koelsystemen proberen potentiële kopers te verleiden met goed onderbouwde marketingdocumenten en cijfers. Maar hoe efficiënt is een aangeboden systeem nu echt? Welke onafhankelijke handvatten zijn er om een keuze makkelijker te maken? Datacenter Pulse (DCP) en de Silicon Valley Leadership Group (SVLG) proberen hier antwoord op te geven met de Chill Off-test.

Tijdens de aankomende SVLG Summit op 14 oktober 2010 in San Jose (CA, USA) zullen de resultaten worden gepresenteerd. Tijdens dit evenement worden ook de resultaten van andere R&D onderzoeken op datacenter gebied gepubliceerd door diverse commerciële organisaties (Yahoo!, Microsoft, Google) en universiteiten.

Het totale programma van de SVLG bijeenkomst is te vinden op: http://dcee.svlg.org/media/DCES10Agenda.pdf

Een overzicht van alle Chill-Off gerelateerde video’s zijn te vinden op: http://datacenterpulse.org/TheChillOff en op het Youtube kanaal van DatacenterPulse: http://www.youtube.com/user/datacenterpulse

Share