JanWiersma.com

The need for datacenter education in emerging countries.

<Cross-post with my DCP blog>

I recently had the privilege to travel to some of the emerging datacenter countries like Eastern Europe, Russia, Middle East, Africa and some of the Asian countries.

While I was impressed with the deployment of mobile bandwidth & devices the conversations with datacenter owners and operators scared me. With more and more people getting internet access in these countries, the need for local datacenters also rises. Taking the time to really talk and listen to the stories of some of the local datacenter owners, it reminded me of the way datacenters were build and operated 10 years ago in most western countries.

Zooming in to the way these local operators and owners gather their knowledge, two things stuck me:

  • Most of them aren’t connected to industry groups or communities like Datacenter Pulse, 7×24 Exchange, Uptime Institute, etc… Sometimes this is a cultural or language barrier but most of the time I found this to be an awareness issue.
  • There aren’t as many industry conferences in those locations. It’s hard for conference organizers to get something going from a sponsor & revenue perspective. So where do local operators go to learn?

I think the larger datacenter vendors need to step up and take responsibility.
I think western datacenter owners and operators have a moral responsibility to go out and educate.

We need to send our Dr-Bob’s out and educate them on the benefits of retrofits of old facilities.
We need to send the industry leaders (either vendor or DC-owners) out and educate the emerging countries on the technical opportunities they have for the many greenfield projects begin run in those countries.

This way they know what technology is available before some of the old-fashioned datacenter consultants step in and copy-past our 10-year-old datacenter designs.
This way we protect them from mistakes we already made and they can leapfrog in to a brighter datacenter future.

I know this sounds idealistic be we owe that to these emerging economies, especially from a resource (like energy) efficiency perspective.

So if you have the chance to travel to emerging datacenter countries, take it. Share, lecture, educate, and try to protect the local operators and owners from making the same mistakes we made 10 years ago. They deserve that chance.

Believe me… it will make the world a better place.

Hivos Expert meeting datacentra

Hivos organiseert een Expert meeting, waar in Datacenter Pulse ook deel zal nemen:

Op vrijdag 28 juni organiseert Hivos een “Expert meeting data centra: Trends in de sector.”

Hivos nodigt u uit om mee te discussieren over prikkelende stellingen en visies van experts uit de sector.

Wilt u zelf een stelling verdedigen of aanvallen? Dan kan ook.

Meer informatie over de bijeenkomst vindt u in de uitnodiging (zie bijlage).

U kunt zich aanmelden door voor 22 juni een bericht te sturen aan expertmeeting@hivos.nl met daarin uw naam en uw bedrijf/organisatie.

De uitnodiging is hier: uitnodiging-def.pdf

 

Datacenter Pulse Top 10 – 2012

Tijdens de afgelopen Datacenter Pulse Summit 2012, werd de Top10 opnieuw vastgesteld. De Top10’s van de afgelopen jaren (klik voor groter formaat):

image image

image

Het doel van deze Top10 is de datacenter leveranciers een indruk te geven van de problemen waar datacenter eigenaren (dagelijks) mee worstelen.

De 2012 Top10 bestaat uit de volgende elementen:

1. Facilities and IT Alignment:  Al jaren is de kloof tussen facilitair en IT een probleem voor veel bedrijven. De uitdaging is om een gemeenschappelijke taal te ontwikkelen, kosten transparant te maken en technologieën op elkaar te laten aansluiten. Grote bedrijven zoals Microsoft, Google en eBay hebben dit probleem reeds onder controle. In de rest van de ICT sector moet dit zijn beslag nog krijgen.

2. Simple, top-level efficiency metric: Data Center Pulse komt met een voorstel voor een Service Efficiency metriek, welke uitgebreid behandeld is door datacenter eindgebruikers tijdens de afgelopen DCP Summit. Het voorstel bevat een framework die zou moeten werken als een liter-op-kilometer model voor datacentra. Het voorstel word deze zomer uitgewerkt en daarna uitgebracht. Meer info in deze  video.

3. Standardized Stack Framework: Al enkele jaren word er gewerkt aan de Data Center Stack. Deze lijkt op het OSI Model, maar dan voor de hele datacenter keten. De 7 lagen in de Stack helpen om de conversatie tussen IT en Facilitair op gang te brengen en relaties tussen onderdelen aan te geven. Versie 2.1 is uit gegeven en word met hulp van andere organisaties zoals Green Grid verder uitgewerkt.

4. Move from Availability to Resiliency: Nu de weerbaarheid applicaties om uitval op te vangen steeds groter word en men beschikbaarheid met geografische spreiding kan oplossen, betekend dit dat men anders kan gaan nadenken over beschikbaarheid in het fysieke datacenter. Het goed uitwerken van deze balans kan kosten verlagen en uiteindelijk beschikbaarheid dramatisch verhogen.

5. Renewable Power Options: Dit is een typisch US probleem; de beschikbaarheid van ‘groene’ stroom mogelijkheden is beperkt in de US. “The lack of cost-effective renewable power is a growing problem for data centers, which use enormous volumes of electricity. Data Center Pulse sees potential for progress in approaches that have worked in Europe, where renewable power is more readily available than in the U.S. These include focusing business development opportunities at the state level, and encouraging alignment between end users, utilities, government and developers.”

6. “Containers” vs. Brick & Mortar: Zijn containers en modulaire ontwerpen realistische optie? Nu steeds meer organisaties hier mee aan de slag gaan, is het belangrijk om hier over de juiste informatie te delen. Een modulair ontwerp dat bij de ene organisatie past, hoeft niet noodzakelijker wijs ook bij de andere. Ook zijn er hybride ontwerpen mogelijk waarbij een bijvoorbeeld een container onderdeel kan uit maken van de bestaande installatie.

7. Hybrid DC Designs: De hybride benadering geld voor modulaire ontwerpen maar ook voor de TIER levels en de redundantie van mechanische en elektrotechnische systemen. Steeds meer datacenter eigenaren besparen geld door het datacenter slim in zones te verdelen waarbij verschillende niveuas van beschikbaarheid mogelijk zijn.

8. Liquid Cooled IT Equipment Options: Voor veel IT operaties is het belangrijk om de hoeveelheid werk per Watt te verhogen. Een hogere densitie (kW) per rack kan hier een positieve rol bij spelen. Hier door komen de limieten van luchtkoeling in beeld en word vloeistofkoeling economisch interessanter. .

9. Free Cooling “Everywhere”: Uit de recente case study van Green Grid over het eBay Project Mercury blijkt dat 100% vrije koeling, het gehele jaar, zelfs mogelijk is in plaatsen als Phoenix (AZ, USA) waar het zomers meer als 45C kan worden. Engineers moeten verder uitgedaagd worden om dit soort opties uit te werken en producten te ontwikkelen die dit ondersteunen.

10. Converged Infrastructure Intelligence: Data center operators moeten hun infrastructuur kunnen benaderen als een geheel systeem. Hierbij dient meting en controle op basis van integratie tussen IT en facilitaire techniek mogelijk te zijn. Datacenter Infrastructure Management (DCIM) is onderdeel van deze trend, maar er is nog veel werk nodig om protocollen en connecties te standaardiseren.

Hier de video met de uitleg van Dean Nelson en zijn blog:

[youtube=http://www.youtube.com/watch?v=FhBcTJ3H5OA&w=448&h=252&hd=1]

 

DCP Summit 2012

Dit alles werd samen gesteld op de 2012 Datacenter Pulse Summit vorige week, waar van hier een samenvatting:

[youtube=http://www.youtube.com/watch?v=eugWuhzszbQ&w=448&h=252&hd=1]

DCP start 2e open-RFP project

Zoals gisteren aangekondigd op Twitter en de DatacenterPulse website, is DatacenterPulse samen met eBay het 2e open RFP project gestart. Dit maal voor een datacenter ontwerp in Salt Lake City, Utah. Het project heeft de naam QuickSilver mee gekregen.

Bij het vorige open-RFP project Mercury werd de datacenter ontwerp markt uitgedaagd om een maximaal flexibel datacenter te ontwerpen voor eBay in Phoenix. Hierbij was ook de eis dat men het gehele jaar 100% free cooling toegepast kon worden. Daarnaast was de eis:

  • modulair TIER 1 t/m4 kunnen ondersteunen
  • modulair lucht koeling en water koeling kunnen ondersteunen
  • zowel normale racks als gehele datacenter containers kunnen ondersteunen
  • diverse rack vermogens kunnen ondersteunen

De winnende ontwerpen werden op 22 februari 2011 gepresenteerd aan de DatacenterPulse leden tijdens de Modularity Readout op de Google campus. Het project bereikte zijn doel: de markt uitdagen om met innovatieve ontwerpen te komen voor datacentra en deze kennis delen met andere datacenter eigenaren.

Project QuickSilver neemt de leerpunten uit het vorige open-RFP project mee voor de volgende uitdaging;

We are consutructing a new building on one of the three adjacent 15 acre phases of the Salt Lake City, Utah Data Center that we opened in 2010. You can see the phases from the arial photo below. The initial delivery of IT critial power will be 4MW, with scale to 30MW. The design must be completed in Q1 of 2012, with construction starting in Q2 and full commissioning complete by 12/21/2012.

Hierbij zijn de volgende eisen gesteld:

  • Server racks from 5-40kW
  • Server containers that can scale from 100kW and up.
  • All locations (racks & containers) must have air and hot-water cooling available
  • Expand power and cooling capacity in a modular basis
  • Ability to select or change Tier level from Tier 1 to concurrently maintainable Tier 2 or 3.
  • Free cooling year round in Utah
  • Rack or MEP UPS flexibility (choose)
  • 400V distribution to the server rack PDUs
  • Entire design must be highly cost effective.

De beste 5 ontwerpen worden ook weer gedeeld met datacenter eigenaren uit de 1500+ leden groep van DatacenterPulse.

[youtube=http://www.youtube.com/watch?v=LGSoBF_yZm4&w=448&h=252&hd=1]

 

De project pagina is hier: http://datacenterpulse.org/rfp/modular/quicksilver. De inschrijving is 19-8 geopend.

Waarom de stap van Facebook interessant is…

De afgelopen week kondigde Facebook het Open Compute initiatief aan. Kort gezegd publiceerde ze al hun bouw tekeningen van hun datacenter en servers met de mededeling; hier is het, gebruik het, verbeter het…

In de dagen daar op kwam er een stort vloed aan blogs en twitter discussies los over het initiatief. Na een flinke discussie afgelopen weekend met DatacenterPulse leden en cloud guru’s; waarom dit initiatief relevant is voor jou (Enterprise) IT omgeving:

Facebook behoord tot mijn rijtje van bedrijven uit de Formule 1 der ICT; bedrijven die ver vooruit zijn in technologische ontwikkeling, vaak vanwege schaalgrote, en waar van op termijn interessante technologie ontstaat die bruikbaar is voor Enterprise IT en later MKB IT.

Deze bedrijven hebben in de afgelopen jaren diverse interessante ontwikkelingen naar buiten gebracht, die nu al een impact hebben op enterprise IT omgevingen. Een voorbeeld is de inzet van datacenter containers; Uiteraard is de inzet van een container vol met 1500 servers een maatje te groot voor de meeste organisaties. Echter het modulaire concept er achter heeft de manier van datacenter bouw veranderd. Zeker als je kijkt naar het huidige portfolio van veel datacenter aanbieders, zie je altijd wel ergens een ‘modulaire’ oplossing. Deze innovatie is dus opgepakt door de eindgebruikers en de markt, waarna er producten op door ontwikkeld zijn die toepasbaar zijn voor de ‘normale’ IT.

Een ander voorbeeld is de ontwikkeling van Hadoop voor de afhandeling van grote hoeveelheden data. Over dit ‘data olifantje’ schreef ik al eerder.

OpenCompute-Logo-Main

Facebook geeft nu een kijkje in de keuken van hun datacenter en servers. Google deed dit in het verleden ook al een beetje, maar nooit zo open als Facebook nu doet. In eerste instantie staat het volledig (bouwkundig) ontwerp van het Facebook datacenter op internet samen met de server ontwerpen.

De aankondiging van Facebook over hun Open Compute initiatief werd gematigd positief ontvangen; de vraag was vooral wat moet ik (als normale IT-er) er mee.

Laat ik duidelijk zijn; Het 1-op-1 kopiëren van de ontwerpen van Facebook zal een Enterprise IT omgeving niet helpen. Net zo min als het zal helpen om de Google of Amazon ontwerpen te kopiëren (als die publiek bezit zouden zijn). Hier voor zijn de omgevingen en doelen te verschillend.

Er is echter wel een hoop van te leren voor de enterprise IT-er. Door kritisch te kijken in de keuken van de Formule 1 kun je zien waarom het hun lukt om wel 10.000-en servers met enkele beheerders in de lucht te houden, deze snel uit te rollen en hogere beschikbaarheid te bieden tegen lagere kosten.

Daarnaast geeft het ons als eind gebruiker inzicht in de technologische mogelijkheden. Hiermee kunnen we de leveranciers onder druk zetten om ons betere producten te leveren. Dit past geheel in de visie die DatacenterPulse na streeft: “influence the datacenter industry through end users”

Twee andere Open* ontwikkelingen die de moeite waard zijn van het volgen op het IT vlak zijn:

www.openstack.org

OpenStack is a collection of open source technologies delivering a massively scalable cloud operating system. OpenStack is currently developing two interrelated projects: OpenStack Compute and OpenStack Object Storage. OpenStack Compute is software to provision and manage large groups of virtual private servers, and OpenStack Object Storage is software for creating redundant, scalable object storage using clusters of commodity servers to store terabytes or even petabytes of data.

www.openflow.org

OpenFlow enables networks to evolve, by giving a remote controller the power to modify the behavior of network devices, through a well-defined "forwarding instruction set". The growing OpenFlow ecosystem now includes routers, switches, virtual switches, and access points from a range of vendors.

Deze laatste heeft vooral mijn interesse omdat er wel netwerk innovatie is geweest op snelheid (10G, etc..) maar niet echt een open initiatief op het gehele eco-systeem. Hiermee lijkt het netwerk ook echt aansluiting te gaan vinden met de cloud ontwikkelingen op opslag en compute gebied.

Uiteindelijk zien we een heleboel interessante ontwikkelingen aan de horizon, die Enterprise IT gaan helpen. Zeker bij de bouw van private cloud en focus op ‘big data’.

Infrastructuur commodity ?

De Facebook openheid op dit vlak geeft ook nog een andere trend aan; het hebben van een datacenter en IT infrastructuur word steeds minder een strategisch voordeel. Feitelijk kan de Facebook concurrentie het model compleet kopiëren, maar Facebook geeft eigenlijk aan dat dit geen bedreiging zal zijn voor hun business. Ze richten zich op hun belangrijkste waarde; de data en hun eind gebruikers. Deze leveren wel het strategisch voordeel, zoals ook de Huffington Post concludeert:

"[The Open Compute Project] really is a big deal because it constitutes a general shift in terms of what how we look at technology as a competitive advantage," O’Grady said. "For Facebook, the evidence is piling up that they don’t consider technology to be a competitive advantage. They view their competitive advantage in the marketplace to be their users."

Die conclusie werd ook al getrokken rond infrastructuur software (zoals database) bij Facebook en enkele andere, rond de openheid van hun ontwikkelingen;

For Facebook, the value is not in the infrastructure – though Hip-Hop demonstrates the value of even marginal improvements in performance for high scale players – it is in the users and the data they generate. As Tim O’Reilly famously put it, “data is the Intel Inside.”
Read more: http://redmonk.com/sogrady/2011/03/11/how-important-is-software/#ixzz1JFQUwNwa

En dat alles zou wel eens de belangrijkste conclusie kunnen zijn van al deze publicaties en discussies; het gaat om de data… en de IT er om heen word een commodity. Met dank aan de Formule 1 van IT en cloud computing…

Meer van mijn cloud collega’s:

The Green Grid verruimt scope

Begin maart 2011 vond het Green Grid Technical Forum plaats in Santa Clara (California, USA). Tijdens dit evenement werd door de kersverse Executive Director Mark Monroe een nieuwe richting voor The Green Grid (TGG) aangekondigd.

De afgelopen jaren is TGG zeer succes vol geweest in creëren van aandacht voor energie efficiëntie. Dit gebeurde o.a. met de door hun ontwikkelde Power Usage Effectiveness (PUE). Dit meetinstrument voor de energie efficiëntie van je datacenter omgeving is inmiddels internationaal geaccepteerd en de meeste kaders voor het vaststellen en gebruik van PUE zijn bepaald.

Mark Monroe kreeg begin 2011 de leiding over The Green Grid. Hij heeft jaren lange ervaring op datacenter gebied en was de laatste jaren actief op het gebied van algemene duurzaamheid voor bijvoorbeeld SUN. Hij is ook geen onbekende voor TGG omdat hij 1 van de mede oprichters is. Zijn brede kennis op het duurzaamheids vlak past perfect bij de nieuwe richting die TGG nu neemt.

Op het EMEA Tech Forum (begin 2011) werd al eerder bekend gemaakt, dat men 2 nieuwe efficiëntie eenheden wilde introduceren:

…; Carbon Usage Effectiveness (CUE) en de Water Usage Effectiveness (WUE), zoals ook aangekondigd in recent persbericht:

The new metrics, called Carbon Usage Effectiveness (CUE) and the upcoming Water Usage Effectiveness (WUE), are joining The Green Grid’s widely-used Power Usage Effectiveness (PUE) metric. All are designed to help IT, facilities, and sustainability organizations across the globe optimize their data centers.

Hier mee werd al duidelijk dat de focus voor TGG verschuift van enkel energie efficiëntie naar de duurzaamheid van het gehele datacenter, waar water verbruik ook een belangrijk deel van uit maakt.

Mark Monroe legt de scope wijziging uit:

[youtube=http://www.youtube.com/watch?v=uwQOON42C_w&w=448&h=252&hd=1]

TGG Data Center Maturity Model Mat-model-TGG

Een goed voorbeeld van deze brede aanpak is het Data Center Maturity Model dat tijdens het Technical Forum officieel gepubliceerd werd. Waar voorheen door TGG vooral gekeken werd naar energie efficiëntie op het facilitaire datacenter niveau, word in dit model gekeken naar alle componenten uit de IT keten.

Het model bekijkt facility (met o.a. power, cooling en management) en IT (met compute, storage en network). De volwassenheid op dit vlak kan in kaart gebracht worden op een schaal van 0 (onvolwassen) tot 5 (leading edge). Zodra er bepaald is waar de organisatie staat op deze schaal, kan er een route uitgezet worden naar het volgende niveau. Op deze manier kan het management voor elk vlak een doel uitzetten voor de komende 2 a 3 jaar. Het model geeft daarbij de mogelijkheid om per vlak een score toe te passen. Zo kan een organisatie dus op datacenter cooling een 3 scoren en op IT storage een 2.

Mat-model-TGG2

The model’s Level 0 means a data center’s maturity is minimal and shows no progress. Level 5 – the highest mark – designates the data center as ‘visionary’.
“The initial levels chart the progress of a typical data center that has taken no efficiency improvement measures to one exemplifying the state of an average data center to one that employs current best practices,” reads the organization’s paper on the model.

Het laagste niveau (Level 0) beslaat een omgeving waar in weinig tot geen aandacht is voor energie efficiëntie. Bij Level 1 en 2 past men de industrie best practices uit. Dit zijn de basis best practices die in geruime maten beschikbaar zijn in de markt op dit moment. Level 5 word bestempeld als visionair. Vanaf Level 3 treffen we technologieën aan die leading edge zijn en volop in ontwikkeling. De gedachte hierbij is dat de markt en technologie over ongeveer 5 jaar de onderdelen uit Level 5 als gemeengoed zou moeten zien. Op deze manier probeert TGG zowel de markt als eind gebruikers te stimuleren gezamenlijk te werken aan nieuwe energie efficiënte oplossingen.

De verwachting is dat state-of-the-art data centers zich zullen ontwikkelen van een Level 2 naar Level 5 rond 2016 (groene lijn) . Een generiek datacenter zal zich ontwikkelen naar Level 3 (gele lijn) en slechter presterende datacentra zullen achter blijven en zich ontwikkelen naar Level 2 (rode lijn). 

Mat-model-TGG3

Het Data Center Maturity Model is uiteraard een levend document waar van op dit moment versie 1 is uitgegeven. Naar mate de technologie en mogelijkheden zich door ontwikkelen, zal ook het model bijgewerkt worden.

Zoals ook destijds bij de PUE ontwikkeling, is het model niet bedoeld als marketing instrument of als vergelijking tussen bedrijven onderling (benchmark). Het model is bedoelt als interne toetsing en handvat voor de interne door ontwikkeling van energie efficiëntie.

Uitgebreide uitleg over het model door Harkeeret Singh (chair of The Green Grid’s EMEA technical committee):

[youtube=http://www.youtube.com/watch?v=1Q8zNjEitS8&w=448&h=252&hd=1]

 

Het model is hier te vinden. De bijbehorende whitepaper hier.

Datacenter Pulse Summit

Voorafgaand aan het Green Grid Technical Forum organiseerde Datacenter Pulse (DCP) een dag voor hun leden. Dit in het kader van de alliantie tussen Datacenter Pulse en The Green Grid. Tijdens deze bijeenkomst, waar alleen datacenter eigenaren en eindgebruikers welkom waren, werd gekeken naar
de richting die The Green Grid aan het nemen is en werd hier feedback op gegeven. Ook werd er gekeken wat de top 10 zaken zijn die datacenter eigenaren ‘s nachts uit hun slaap houd. De behandelde onderwerpen waren:

  • DCP Stack Revision & TGG Maturity Model
  • Green Grid Input
    • Data Center Design Guide, WUE/CUE Metrics
    • The Collision Course of Site Selection and Sustainability
  • Modularity, Density, & High-Temp (Combined)
    • Gages – Modular DC RFP Process, Modularity readout interest, & Chill Off work
  • Operational Challenges: What keeps you up at night?

DCP Stack

De DCP stack is al weer 2 jaar oud en werd onderworpen aan een kritische blik. De huidige versie (2) is bedoelt als referentie model om gespreken binnen organisaties makkelijker te maken en onderlinge relaties en afhankelijkheden te kunnen laten zien. De rechterzijde van het model, dat handelt over duurzaamheid in relatie tot datacenter input (zoals stroom en water) en output, was o.a. de aanleiding voor TGG om te werken aan het Data Center Maturity Model. Deze 2 modellen komen hier mooi samen.

dcp-tgg11

(klik voor groter plaatje)

In het model is ook mooi aan te geven welke ‘convergence’ (versmelting) er op dit moment gaande is in de datacenter en IT industrie. Zo zien we cloud computing, datacenter containers en IT appliances, die allemaal hun druk uitoefenen op de totale IT keten.

Ook werd nogmaals duidelijk dat bij het doorvoeren van duurzaamheids oplossingen, vooral naar de hele keten gekeken moet worden omdat punt oplossingen elkaar negatief kunnen beïnvloeden. Hier over schreef ik ook al eerder.

DCP Top 10

De Top 10 zaken die datacenter eigenaren ‘s nachts uit hun slaap houden werd ook bijgewerkt. Deze werd voor het eerst gepubliceerd in 2009.

dcpt10-09dcpt10-10 dcpt10-11

Voor 2011 zijn de Top 10 aandachtspunten:

  1. Industry Alignment
  2. Standardized Stack Framework
  3. Data Center Certification
  4. Move from Availability to Resiliency (new)
  5. More products enabling modularity
  6. Simple, top-level efficiency metric
  7. Wire-line Power Network
  8. Liquid Cooled IT Equipment Options (new)
  9. Expanded IT Equipment Power Options
  10. Infrastructure Intelligence (Convergence) (new)

Datacenter Pulse zal zich uiteraard in 2011 weer inzetten om deze onderwerpen onder het voetlicht te krijgen bij de juiste organisaties en leveranciers en op deze manier het leven van de datacenter eigenaar weer iets makkelijker te maken.

De volledige presentatie van DCP, met alle behandelde onderwerpen, is terug te vinden op TGG website.

Datacenter temperatuur–revisited

In 2009 schreef ik een uitgebreid stuk over datacenter temperatuur. De afgelopen jaren heb ik dit onderwerp ook diverse keren behandeld op congressen. Gezien de ontwikkelingen op dit gebied de laatste maanden; tijd voor een update.

Algemeen kunnen we stellen dat computer apparatuur best wel wat kan hebben. Kijk eens naar de PC die ergens onder je bureau al jaren trouw staat te draaien. Als we die open maken zitten ze meestal vol met stof. Ook is de lucht circulatie meestal niet al te best, zo weg gestopt tussen allemaal spullen. Als we naar game consoles kijken zien we dat hardware helemaal veel kan hebben. De uiterst krachtige PlayStation 3 of XBOX 360 zijn uitgevoerd met een kleine ventilator en weg gestopt in een kastje onder de TV. Zo gaf ook James Hamilton (Amazon) aan in 2010:

[youtube=http://www.youtube.com/watch?v=kHW-ayt_Urk&w=448&h=252&hd=1]

(Bedoelde stuk vanaf 20min:15sec, de rest van de video is ook erg de moeite waard overigens…)

De hoofd reden om koeling toe te passen in het datacenter zijn de eisen van de IT hardware leverancier. Deze eisen zijn terug te vinden in de garantie voorwaarde. Zodra je buiten de aangegeven bandbreedte opereert, vervalt je garantie. De vraag is hoe groot de veiligheids marge is die door de advocaten van de hardware leverancier is ingebouwd. Mensen, zoals Christian Belady, die in de ontwikkeling van hardware hebben gewerkt merkten al eerder op:

As a former server designer, I know that server vendors “sandbag” their hardware. Sandbagging refers to the practice of knowing you can do more but holding back to hedge your risks; in reality, I believe that manufacturers can take greater risks in their operating environments and still achieve the same reliability levels.

Verandering aan de horizon.TC99_Books_Staggered_Large_2

ASHRAE is altijd aardig richting gevend geweest als het aankomt op datacenter temperatuur. Vooral hun Technical Committee (TC) 9.9 (Mission Critical Facilities, Technology Spaces and Electronic Equipment), is een bonte verzameling aan datacenter specialisten, eind gebruikers en hardware leveranciers die bepalend zijn voor een aantal ‘standaarden’ binnen de datacenter industrie.

TC9.9 heeft een bonte verzameling aan boeken gepubliceerd, waar onder “Thermal Guidelines for Data Processing Environments”. In dit boek word ook de bandbreedte voor datacenter temperatuur behandeld, en de inhoud word door alle grote IT leveranciers onderschreven. In de eerste editie van dit boek was de grens op 25C voor de inlet-temperatuur gesteld. In 2008 kwam er een update waarbij de grens op 27C gesteld werd.

Versie 3 komt over een aantal dagen (begin maart 2011) beschikbaar en hier in zal de bandbreedte weer opgerekt worden. Wederom ondersteund door alle grote IT leveranciers. Zoals het persbericht vermeld, word naast de hogere temperatuur er ook rekening gehouden met (oudere) legacy systemen die dit niet ondersteunen.

The third edition will be equally groundbreaking in that it will enable compressorless cooling (all cooling through economizers) in many applications.  Accomplishing this has been a challenge since major tradeoffs (equipment size, equipment cost and operating cost) surface above a certain temperature threshold.  This challenge is complicated because the threshold is not the same for all the manufacturers.

“Different locations, applications and business philosophies make it ineffective to force all equipment to be capable of the same high temperature tolerance (in some cases higher thresholds would negatively impact the return on investment),” Beaty said. “To address this, the third edition creates multiple server classes and therefore provides freedom of choice.  This is particularly important since the thermal guidelines are used throughout the world.”

Deze update door TC9.9 is ook duidelijk een antwoord op de groeiende trend bij grotere datacenter eigenaren om zelf de temperatuur grenzen op te zoeken. Yahoo nam deze stap al in hun

‘Yahoo Computing Coop’ waarbij men volledig passief koelt en hogere temperaturen gebruikt. eBay nam samen met DatacenterPulse dit nog een stap verder door een datacenter in Phoenix te bouwen, met een gemiddelde van 38C in de zomer, en deze volledig van vrije koeling te voorzien. Ook hierbij werden hogere temperaturen voor de IT systemen gebruikt.

Buiten de grenzen.

Veel van de innovatieve ideeën komen door het denken buiten de bestaande oplossingen en vooral jezelf af te vragen waarom dingen zijn zoals ze zijn. Als we zien dat hogere temperaturen en bijvoorbeeld stof maar een marginaal effect heeft op de beschikbaarheid van het systeem en we zien dat er grote winsten te halen zijn door anders (of niet) te koelen zou je een radicale stap kunnen nemen: je systemen buiten de garantie grens laten draaien.

Zodra je buiten de grens komt (nu meestal 35C), vervalt je garantie. Dit betekend dat je niet meer bij de leverancier kunt aankloppen als je systeem stuk is. Als je echter zelf een paar extra systemen op de plank legt ter vervanging van je defecte systeem, is je probleem ook snel opgelost. Daarnaast kun je met de leverancier onderhandelen over een inkoop korting voor deze systemen aangezien je de garantie niet nodig hebt. Zoals eerder gezegd kent de garantie voorwaarde een hele grote veiligheids marge en blijken systemen een stuk robuuster.

Dit idee is een kwestie van kosten en risico berekening.

Integratie en meten

Extreme temperatuur of niet, het goed meten en vastleggen van de (inlet) temperaturen in het datacenter is een must. Dit geeft je inzicht in de effecten van het verhogen van de temperatuur en het totale warmte beeld dat dit oplevert voor je datacenter.

Ondanks het feit dat bijvoorbeeld server systemen tegenwoordig een garantie grens kennen van 35C, heb ik diverse discussies met engineers van grote IT leveranciers gehad over het feit dat het ‘te warm’ zou zijn in een datacenter dat afgeregeld was rond de 25C. Het goed meten en vastleggen van temperatuur kan je dus ook redden in dit soort garantie discussies.

Voor de ontwerpen van Yahoo en eBay zien we dat men maximaal steunt op de integratie tussen IT systemen en het fysieke datacenter. Door deze keten goed op elkaar af te stemmen kan de echte winst gehaald worden. Denk hierbij aan de discussie: als de temperatuur omhoog gaat –> gaat de server fan harder draaien, waar door de energie afname om hoog gaat (zi
e vorige blog
). De oplossing hier voor word dus niet alleen gezocht in fan-less server ontwerpen maar vooral in de integratie tussen de keten delen.

Warm is best wel eng…

Van ASHRAE mogen we al enige tijd hoger dan 21C. Ook de leveranciers voorwaarde staan ons niet in de weg om hoger te gaan. Daarnaast zijn er diverse onderzoeken die zelfs laten zien dat het nog veel extremer kan met 35C+. De realiteit is dat maar weinig datacentra echt naar hogere temperaturen gaan; de meeste blijven hangen rond de 20 – 22C.

Ik kan me voorstellen dat bedrijven zich niets aan trekken van een ‘groen imago’ of ‘maatschappelijk verantwoord zijn’. Door hun ICT-ers en facilitair personeel echter niet te stimuleren om te kijken naar datacenter temperatuur en het verhogen daar van laten deze bedrijven financiële besparingen liggen. En dat is toch iets was aantrekkelijk moet zijn voor elke organisatie in deze tijd van economische crisis…

Meer:

Chill Off 2 updates & video’s

In aanloop naar het bekend maken van de resultaten van de DatacenterPulse Chill-off 2, worden er dagelijks video’s gepubliceerd over de achtergrond en het test proces.

Koeloplossingen voor datacentra kennen vele uitvoeringsvormen. Lucht- of waterkoeling, afsluiting van warme of koude gangen, vrije koeling, koelmiddel of water zijn enkele van de mogelijkheden die een datacentereigenaar voorliggen bij bouw of verbouwing. De leveranciers van deze koelsystemen proberen potentiële kopers te verleiden met goed onderbouwde marketingdocumenten en cijfers. Maar hoe efficiënt is een aangeboden systeem nu echt? Welke onafhankelijke handvatten zijn er om een keuze makkelijker te maken? Datacenter Pulse (DCP) en de Silicon Valley Leadership Group (SVLG) proberen hier antwoord op te geven met de Chill Off-test.

Tijdens de aankomende SVLG Summit op 14 oktober 2010 in San Jose (CA, USA) zullen de resultaten worden gepresenteerd. Tijdens dit evenement worden ook de resultaten van andere R&D onderzoeken op datacenter gebied gepubliceerd door diverse commerciële organisaties (Yahoo!, Microsoft, Google) en universiteiten.

Het totale programma van de SVLG bijeenkomst is te vinden op: http://dcee.svlg.org/media/DCES10Agenda.pdf

Een overzicht van alle Chill-Off gerelateerde video’s zijn te vinden op: http://datacenterpulse.org/TheChillOff en op het Youtube kanaal van DatacenterPulse: http://www.youtube.com/user/datacenterpulse

Nu echt modulair…

Een datacenter bouwen als Lego blokjes… dat lijkt de utopie in de modulaire datacenter wereld. In deze wereld is het datacenter gebouwd uit verschillende blokjes met de volgende karakteristieken: modularity

  • De blokjes zijn beschikbaar in verschillende soorten en maten
  • De blokjes zijn snel leverbaar, hier door is het datacenter snel uit te bereiden (+/- 6 weken, JIT levering)
  • Bij de keuze van het blokje, kan men kiezen uit TIER 1 t/m 4 voor beschikbaarheid. Hier door kan men beschikbaarheidsniveaus mixen.
  • Bij de keuze van het blokje, kan men kiezen uit diverse PUE niveaus.
  • Bij de keuze van het blokje, kan men kiezen uit diverse warmte belastingen per rack (kW/rack).
  • Bij de keuze van het blokje, kan men keizen uit diverse koeloplossingen (lucht (van buiten), water)
  • Bij de keuze van het blokje, kan men kiezen uit huur, lease of koop van het blokje.

Hier mee kan men dus op het juiste moment, het meest geschikte blokje inzetten tegen de juiste financiële voorwaarde. Deze modulariteit is niet automatisch een container datacenter. Diverse ‘niet-container-leveranciers’ leveren ook een modulair gebouwde oplossing.

Deze utopie is al langer de wens van menig datacenter eigenaar. Uiteraard proberen diverse leveranciers in te spelen op deze wens. Modulariteit is hier mee tot een marketing term verworden, die te pas en te onpas vermeld word bij diverse datacenter oplossingen.

Zoals Lex Coors (Interxion), terecht, zich beklaagd in DatacenterWorks:

Tegenwoordig lijkt het wel alsof alle datacenters modulair worden gebouwd. Helaas verstaat niet iedereen hetzelfde onder modulair bouwen, zo stelt Lex Coors, vicepresident datacenter technologie en engineering group van Interxion. “Er wordt veel gesproken over modulair bouwen maar uiteindelijk zie ik alleen de fasering terug en niet de modulaire benadering van de infrastructuur.”

Datacenter Pulse toetst regelmatig binnen de 1500+ leden wat hun top 10 grootste uitdagingen zijn op datacenter gebied. Op nummer 9 vinden we daar ook modulariteit:

More Products with Modularity

Goal: Enable pro-active, simple expansion or contraction of datacenter capacity without risk or reduction of design availabilities.

  • Update: Not seeing any significant increase in modular product offerings or end user implementations
  • Both vendors and end users need to elevate the discussions to implement current modular solutions to enable future modular products.

De frustratie van Lex word dus gedeeld door andere datacenter eigenaren. Datacenter Pulse komt nu te hulp met de Modulair RFP.

Continue with reading