JanWiersma.com

The need for datacenter education in emerging countries.

<Cross-post with my DCP blog>

I recently had the privilege to travel to some of the emerging datacenter countries like Eastern Europe, Russia, Middle East, Africa and some of the Asian countries.

While I was impressed with the deployment of mobile bandwidth & devices the conversations with datacenter owners and operators scared me. With more and more people getting internet access in these countries, the need for local datacenters also rises. Taking the time to really talk and listen to the stories of some of the local datacenter owners, it reminded me of the way datacenters were build and operated 10 years ago in most western countries.

Zooming in to the way these local operators and owners gather their knowledge, two things stuck me:

  • Most of them aren’t connected to industry groups or communities like Datacenter Pulse, 7×24 Exchange, Uptime Institute, etc… Sometimes this is a cultural or language barrier but most of the time I found this to be an awareness issue.
  • There aren’t as many industry conferences in those locations. It’s hard for conference organizers to get something going from a sponsor & revenue perspective. So where do local operators go to learn?

I think the larger datacenter vendors need to step up and take responsibility.
I think western datacenter owners and operators have a moral responsibility to go out and educate.

We need to send our Dr-Bob’s out and educate them on the benefits of retrofits of old facilities.
We need to send the industry leaders (either vendor or DC-owners) out and educate the emerging countries on the technical opportunities they have for the many greenfield projects begin run in those countries.

This way they know what technology is available before some of the old-fashioned datacenter consultants step in and copy-past our 10-year-old datacenter designs.
This way we protect them from mistakes we already made and they can leapfrog in to a brighter datacenter future.

I know this sounds idealistic be we owe that to these emerging economies, especially from a resource (like energy) efficiency perspective.

So if you have the chance to travel to emerging datacenter countries, take it. Share, lecture, educate, and try to protect the local operators and owners from making the same mistakes we made 10 years ago. They deserve that chance.

Believe me… it will make the world a better place.

Radio 1 besteed aandacht aan energie&datacentra

Het is geen geheim dat er (overheids) aandacht is voor de hoeveelheid energie die datacentra verbruiken. Er zijn echter ook een hoop initiatieven om dit energie verbruik in te dammen. Hierbij word dan met name gekeken naar de ‘overhead’ energie; de energie die niet naar IT gaat, maar verbruikt word voor bijvoorbeeld koeling.

De gemeente Amsterdam is een grote aanjager van deze efficiëntie slag. Sinds 2011 ligt er al een ‘Green deal’ tussen de rijksoverheid en de gemeente voor deze aanjagers rol.

In deze Green Deal staat zelfs:

Op basis van de Amsterdamse acties streeft de stad naar het vastleggen van een landelijke prestatienorm op basis van best beschikbare technieken voor nieuwe installaties op basis van best beschikbare technieken voor bestaande datacenters op best haalbare prestatie

De Amsterdamse Groenlinks wethouder Maarten van de Poelgeest zit hier boven op, want zo schrijft hij in zijn blog:

Wel is het zo dat de 36 Amsterdamse datacentra maar liefst 11% van het Amsterdamse bedrijfsverbruik voor haar rekening nemen.

Het Radio 1 programma Vara Vroege Vogels ging daarom bij de wethouder op bezoek en besprak de mogelijkheden voor energie efficiënte koeling met Jan Wiersma. Het fragment is te vinden op de site van de Vara: Datacenters:groener! en een copy hier (mp3) lokaal.

Nabrander – Groene software; door beïnvloeden van gedrag

Naar aanleiding van de workshop rond groene software, mijn blog en presentatie daar, zijn er nog een aantal zaken die ontbraken in mijn vorige blog of interessante zaken die voorbij kwamen in de discussie.

sf

1. Virtualisatie.

Zoals de heren van Schuberg Philis lieten zien in hun presentatie, zijn veel systeem resources op servers onderbenut. Virtualisatie kan daarbij duidelijk een rol spelen; het zorgt voor betere uitnutting van de beschikbare hardware. Aangezien een server die niets staat te doen (idle is) toch 40-60% van zijn maximale energie consumeert, levert dit dus energie besparingen op.

2. Strippen en tunen van je server OS.

In de discussie kwam de overhead van besturingssystemen aanbod; In de afgelopen jaren zijn besturingssystemen (OS’en) zoals Windows en Linux uitgegroeid tot alleskunners. De leverancier van het OS weet uiteraard vooraf niet wat de klant er op wil draaien. De ene keer kan het een email servers zijn, de volgende keer een database server. Standaard komt een modern OS dus met een waslijst aan services of daemon’s die aan staan. Daar boven op komen vaak nieuwe services van een virusscanner, een inventory tool, monitoring tool, etc.. Al met al gaan er een hoop computer resources verloren met al deze services en deamon’s.

IT Security specialisten leren ons echter ook al jaren dat je server OS’en dient te ontdoen van al deze overhead. Dit maakt namelijk de mogelijke ingangen voor hackers kleiner. Diverse tools van IT leveranciers kunnen hierbij helpen. Ook kan men steeds meer kiezen voor zo geheten virtual appliances. Deze virtuele servers zijn door de leverancier al gestript en taak specifiek gemaakt.

Het strippen en tunen van je server OS na het installeren van zijn specifieke rol is dus een security en (energie) efficiëntie noodzaak.

kngs-sf3. Is energie afname van software wel te ‘zien’ ?

Er was een kritische kanttekening bij het feit of de energie afname van een query wel te zien was;

Systeembeheerders weten al enige tijd dat het systeem wat zijn in beheer gaan nemen voorzien moet worden van een baseline. Hierbij word basis gedrag van het systeem bepaald, zodat er binnen monitoring en beheer applicaties drempelwaarde gezet kunnen worden om het nieuwe systeem in de gaten te houden. Op deze manier worden de beheerders niet onnodig belast met valse meldingen.

Tijdens een goed OTAP proces met performance testen, worden dit soort baselines opgesteld voor hele applicatie ketens. Dit helpt de test&performance analist om te bepalen hoe de applicatie keten werkt en of deze goed werkt. Deze gegevens kunnen later gebruikt worden om de beheerder te voeden voor zijn baseline.

Als men een goede baseline (op een gestripte server) vast stelt, is het zeer goed mogelijk voor een applicatie ontwikkelaar om relaties te leggen tussen de handelingen die zijn code uitvoert en het gebruik van systeem resources.

4. Server energie afname.

Zoals bij 1 aangegeven gaat ook een hoop energie verloren in systemen die niets staan te doen. Tijdens de discussie gaf dit een opening tot de ontwikkeling van efficiënte hardware. Daar heb ik in vorige blogs al een hoop overgeschreven. Wat nog specifiek het vermelden waard was:

OpenCompute project heeft een OpenRack design uitgebracht waarbij o.a. met DC power gewerkt word in het rack. Servers hier voor zullen binnen kort van HP en Dell op de markt komen. Binnen kort meer…

De Schuberg Philis mannen tipte mij nog een Anandtech artikel over een test met OpenCompute server hardware; http://www.anandtech.com/show/4958/facebooks-open-compute-server-tested

5. IT Energie afname is geen focus voor vele.

Al vroeg tijdens de bijeenkomst viel het feit dat energie afname door IT, voor veel bedrijven geen primaire focus zou zijn. Dat is een punt wat ik onderschrijf, zeker voor bedrijven waarbij ICT niet hun primaire product is maar een ondersteuning. Voor veel van dit soort bedrijven zitten hun grote kosten (OPEX) niet in energie.

In 2009-2010 concludeerde diverse mensen en organisaties al dat de adoptie van energie efficiëntie daar door maar lastig op gang komt. Zolang er voor een bedrijf geen grote financiële motivator onder zit, zal het lastig blijven om hier focus op te krijgen.

De opkomst van Cloud computing en met name bedrijven in de IAAS / PAAS sfeer, helpt om holistisch gezien deze efficiëntie slag wel te maken;

Voor de bedrijven die de IAAS/PAAS dienst leveren is het datacenter en zijn energie afname wel een grote kosten post, zeker gezien de schaal grote waar veel van dit soort infrastructuren op worden gebouwd. Het verhuizen en consolideren van IT services uit de bezemkast van niet-IT-bedrijven naar een Cloud computing provider levert op dit vlak dus een juiste prikkel.

Zoals in mijn vorige blog vermeld, krijgen de gebruikers van de IAAS/PAAS diensten ook een goede prikkel om efficiëntie programmeer code te gebruiken. De pay-per-use modellen in veel Cloud computing aanbiedingen zorgen daar voor;

“the art of efficiënt programming is lost… Cloud will bring it back… “

Groene software; door beïnvloeden van gedrag

the_cascade_effectKijkend naar energie verbruik zien we dat elke Watt die bespaard word bij de bron uiteindelijk optelt tot een veelvoud daar van in de gehele energie keten van het datacenter. Emerson noemt dat het Cascade Effect.

Nu we zien dat de PUE langzaam richting de (theoretische) 1 zakt, word het zaak om te kijken welke winsten er nog meer te behalen zijn in het datacenter. Op facilitair vlak gaat daar bij de focus naar bijvoorbeeld WUE. Op het vlak van IT was men al bezig efficiënter om te gaan met de bronnen door de inzet van bijvoorbeeld virtualisatie en deduplicatie. 

Dit alles speelt zich echter af op de IT infrastructuur laag. Wat zou er dus nog te behalen zijn bij de ‘echte’ bron in de ICT; software & applicatie ? Door hier te bezuinigen zouden we volgens het cascade effect een veelvoud moeten kunnen besparen.

Begin 2010 haalde ik al aan dat er diverse leveranciers, waar onder Microsoft, Intel en HP, bezig waren de mogelijkheden te verkennen door applicatie ontwikkelaars inzicht te geven in energie verbruik van hun systemen. Dit door middel van SDK’s.

In de afgelopen jaren, waar in ik verantwoordelijk was voor diverse omgevingen binnen commerciële en overheidsbedrijven, heb ik de kans gehad om te kunnen experimenteren met de gedachtes rond beïnvloeden van IT gebruik, door met name ICT-ers zelf. Dit door middel van transparantie in gebruik en verbruik van ICT en het ontwikkelen van kostenmodellen hier op.

Het recent opgerichte Knowledge Network Green Software is ook bezig met dit soort ontwikkeling. In aanloop naar een bijeenkomst hier over op 8 mei 2012 aanstaande, vast een samenvatting van mijn ervaringen rond de ontwikkeling van groene software door het beïnvloeden van verbruiksgedrag. 

Gedachte

Door ontwikkelaars inzicht te geven in verbruik, kun je zorgen dat ze efficiënt omspringen met hun resources. Dit is een normale manier van benaderen als het gaat om IT resources zoals CPU, RAM en verbruik van Disk I/O’s. De software ontwikkelaar controleert de performance van het systeem (eventueel met een software tester) zodat zijn eind product op een normale manier functioneert.

De opkomst van kosten modellen is ook een trend in ICT. Zeker de introductie van virtualisatie heeft dit bevorderd. Aan de ene kant was er de wens vanuit de business om meer naar een pay-per-use model te gaan en andere andere kant was er soms de wens vanuit de IT afdeling om virtualisatie aan banden te leggen. De zo genaamde VM Sprawl is een bekende term voor ICT-ers, waarbij het gemak en de lage kosten voor een virtuele server (VM) leiden tot honderden virtuele servers waar niemand meer van wat van wie ze zijn en waarom ze er zijn. Om dit gedrag aan banden te leggen werden de kosten van VM’s in beeld gebracht en (automatisch) door belast.

Wat nu als we het performance inzicht voor de ontwikkelaar uitbreiden met inzicht in stroom verbruik en deze voorzien van een kosten prikkel door kWh te verrekenen?

Hier mee zou hetzelfde gedrag gestimuleerd kunnen worden als die bij de introductie van slimme energie meters in de thuis omgeving; gedrag sturen door inzicht te geven. Het werkt voor de Eneco Toon en de Nuon E-manager

OTAPdtap

De experimenten werden uitgevoerd in een zo geheten OTAP omgeving (of DTAP in het Engels). Dit is een belangrijke basis aangezien een dergelijke omgeving zorgt voor gecontroleerde uitrol van software en een consistente omgeving. Dit betekend dat de omgeving waar in ontwikkeld, getest en geaccepteerd wordt gelijk is aan de productie omgeving.

In de OTA omgeving word de software ontwikkelaar of database query schrijver voorzien van enkele standaard metrieke voor zijn software ontwikkelaar; CPU , RAM en disk I/O gebruik.

dashboard

Deze werd aangevuld met kWh gegevens van de gebruikte systemen. Al deze gegevens waren (near-)realtime beschikbaar. Zo was het effect van wijzigen van enkele regels code of een query op een database direct terug te zien.

Om de juiste prikkel te creëren werden alle projecten die de OTA omgeving gebruikte belast voor het gebruik van hun resources. Dit op basis van een vast component rond afschrijving van de gebruikte hardware en het beheer daar van. Het flexibele component was het kWh verbruik. Het loont dus voor de project leider om systemen s ’nachts uit te laten schakelen en projectleden te stimuleren energie efficiënte code te schrijven.

Na de normale OTA procedure word de software in productie genomen. Tijdens de experimenten word in productie nogmaals gemeten. Dit om te controleren of aangepaste versies van de software (releases) werkelijk efficiënter zijn geworden in de productie situatie.

 

Technische setup

Om dit alles technisch te kunnen laten werken is wel een omgeving nodig waar in de feedback bijna realtime aan de ontwikkelaar gegeven kan worden.

Tijdens de diverse experimenten werd daar voor het volgende gebruikt:

  • HP c-class blades, IPMI, OA, ILO – De HP ILO en OA (voor blades) geeft realtime inzicht in energie verbruik. Deze gegevens zijn o.a. via scripts (SSH) op te vragen. Voor andere systemen kan men terug vallen op IPMI. Veel IPMI implementaties geven de mogelijkheid om energie verbruik te zien. Er zijn diverse (opensource) tools beschikbaar om IPMI gegevens op te vragen en te verwerken.
  • Windows, Linux – Als besturingssysteem (OS). Deze OS’en kunnen optioneel gebruik maken van Microsoft’s Joulemeter of Intel’s Energy Checker SDK.
  • Oracle DB , Java –
    Als database en default programmeer taal.
  • HP OpenView, HP Insight Control – Voor collectie, verwerking en dashboarding van de gegevens. Uiteraard kan hier voor ook opensource producten zoals Cacti gebruikt worden.
  • VMware vCenter – Voor inzicht in virtuele systemen.
  • Visual Studio performance testing, HP LoadRunner (Mercury) – Deze ontwikkel tools bieden ook veel mogelijkheden om realtime gegevens rond performance en gebruik uit systemen te halen.

Aandachtspunten uit deze experimenten

Bovenstaande setups werkte uitstekend. Zonder veel moeite kon in de meeste gevallen 20% op de energie worden bespaard. Dit door de juiste query’s en code te schrijven. Ook werden de software ontwikkelaars scherper op het schrijven van code zonder al te veel overhead.

De experimenten kende ook de nodige (onopgeloste) uitdagingen:

– Virtualisatie; het meten van energie consumptie met IPMI op hardware niveau is goed te doen. Echter op VM niveau word het een stuk lastiger. VMware heeft al wat werk op dit vlak gedaan met hun Host Power Management in vSphere 5. Zie: http://www.vmware.com/files/pdf/hpm-perf-vsphere5.pdf. Dit is een goede eerste stap, maar verdient nog nadere uitwerking. Af en toe week het totaal energie verbruik op hardware niveau af van het totaal verbruik van de VM’s of werden er cijfers gerapporteerd die niet realistisch aan voelde. Microsoft is ook aardig op weg met hun Joulemeter. De whitepapers van dit Microsoft team zijn echt een must-read voor energie verbruik&virtualisatie. Het is echter onbekend wat de integratie is met Hyper-V. Energie meting opties met KVM of Xen zijn niet gevonden ten tijden van de testen.

– Slechte interne sensoren; in navolging van de afwijkende getallen in de virtualisatie omgeving rond energie verbruik zijn er controles gedaan met externe, geijkte, energie meters. Hierbij bleek er soms 40% verschil te zitten tussen de door HP OA/ILO gerapporteerde energie afname op hardware niveau en de externe meter. Al met al werd geconcludeerd dat in sommige hardware implementaties kwalitatief slechte sensoren gebruikt worden.

– OTAP gedachte; bovenstaande experimenten werken alleen als alle stappen uit het OTAP proces voorzien zijn van dezelfde of nagenoeg zelfde omgevingen. Dit betekend dat men niet alleen software op  release matige manier moet uitrollen, maar ook zo met infrastructuur moet omgaan. Hierbij waren tijdens de testen bijvoorbeeld verschillen te zien in energie efficiënte query’s die wel goed werkte in OTA maar in productie niet. Daarbij bleek productie in 1 geval voorzien te zijn van een Oracle database patch die niet in OTA aanwezig was. Deze had een 60% stijging in energie tot gevolg. In een ander geval waren het enkele ontbrekende Microsoft Windows patches.

– Keten denken & architectuur; al snel bleek dat energie verbruik en efficiëntie ook mee genomen moet worden in de totale architectuur van een applicatie en zijn infrastructuur. Juist bij de applicaties die meerdere systemen gebruiken om hun functionaliteit te kunnen leveren, zijn grote besparingen te halen. Een 3 lagen architectuur is daarbij niet vreemd tegenwoordig; database – applicatie – webserver. De focus tijdens de ontwikkeling dient dus breder te zijn dan enkel die ene query op de database. Hierbij kunnen integratie en test specialisten op infrastructuur en software niveau een rol spelen.

– Keuze van hardware, software; de testen en experimenten zijn uitgevoerd met componenten die op dit moment vast lagen in de architectuur en standaarden. Er is niet gekeken welke effecten de selectie van hardware, besturingssysteem, middelware, database, programmeertaal of programma framework heeft op de energie afname. Wel kwam de keuze voor hardware tot stand door SPECpower als selectie onderdeel te gebruiken.

– Open en integratie; integratie tussen de diverse IT lagen was de sleutel om dit geheel inzichtelijk te krijgen. De schakel die echter miste was de integratie met het fysieke datacenter. Zo levert de PDU en andere elementen uit de energie keten ook kWh gegevens. Deze waren lastig te integreren, zeker als het gaat om protocollen als Modbus.

Integratie en keten denken

Dit laatste punt word ook in de DatacenterPulse Top10 (PDF) voor 2012 aangehaald:

10. CONVERGED INFR. INTELLIGENCE • UPDATE: The Data Center Infrastructure is becoming a complex machine requiring connection up the stack • Treat the DC infrastructure as an IT system • Converge in the infrastructure instrumentation and control systems • Connect it into the IT systems for ultimate control• Standardize connections and protocols to connect components • What’s measured and controlled will be addressed and tuned

Daarbij is de laatste de ‘oneliner’ waar het allemaal om draait: “What’s measured and controlled will be addressed and tuned”

Ondanks bovenstaande uitdagingen zullen we zien dat de komende jaren er steeds efficiëntere software zal ontstaan. Dit zal misschien niet direct gedreven worden vanuit de enkele centen die bespaard worden op de kWh maar meer vanuit het pay-per-use kosten model waar Cloud computing ons mee confronteert. De uitrol van inefficiënte software code of frameworks zal direct een hogere rekening van Amazon (AWS) opleveren. En niets werkt zo stimulerend als dat…

Neelie Kroes & Efficiënte datacentra…

Afgelopen week publiceerde Neelie Kroes (Vice-President European Commission, Digitale Agenda) een blog rond de energie en CO2 footprint van de ICT sector. Hier in haalde ze uiteraard ook de datacentra aan;

Most evidence points to the manufacturing phase of ICT as the largest environmental footprint of the sector. But there are also significant energy needs in data centres. While definite numbers are hard to calculate, the most accurate information suggests that, by 2020, data centres in Western Europe could consume around 100 billion kilowatt hours each year – that’s around the same as the current total electricity consumption of the Netherlands!

De volgende stap werd ook uitstekend verwoord;

Addressing this huge rise in energy consumption first requires transparency from the sector. We need a consistent way to find out where the emissions in the sector are really coming from, and to measure the environmental footprint across the sector.

Dit komt neer op duidelijke afspraken over de manier van meten en communiceren daar over. In de basis roept ze op tot transparantie, samenwerking en de juiste metrieken. In december 2011 schreef ze ook al een keer over standaarden en metrieken in Green Standards – measuring the environmental impact of ICT. Het is belangrijk om gezamenlijke en eenduidige metrieken af te spreken en deze bij voorkeur op wereldwijd niveau te handhaven. Zeker voor internationale bedrijven word het bijna onmogelijk om in elk land weer een aparte versie van de PUE te handhaven.

Op wereldwijd niveau is het daarom goed om te zien dat er afspraken gemaakt word over PUE en deze ook meegenomen word in de ISO normeringen die gevormd worden.

Transparantie helpt om elkaar en daarmee de sector sterker te maken. Denk aan de OpenCompute gedachte van Facebook bijvoorbeeld. Ook DatacenterPulse probeert hier bij zijn steentje bij te dragen met bijvoorbeeld de Open RFP, waarbij de opgedane kennis gedeeld word met andere:

[youtube=http://www.youtube.com/watch?v=-jE_SPX7p0Y&w=448&h=252&hd=1]

 

Aangezien dit alles een focus is voor de EU en haar digitale agenda, moeten we als IT sector zorgen dat dit niet van tafel valt. Geen inzet betekend uiteindelijk altijd regulering van de overheid en dat kunnen we maar beter voor zijn. Dus actie:

Quite aside from the benefits of keeping energy costs down, we must make sure that the smart economy of the future is also sustainable. Information technology is moving to the centre stage of our lives. It’s time it moved to the centre stage of climate action too.

BREEAM voor datacentra in NL

Ongeveer 2 jaar nadat ik vroeg wie de handschoen ging oppakken voor BREEAM-NL Datacentra is deze er nu.33 breeamnl

De handschoen werd uiteindelijk opgepakt door Ziggo en EvoSwitch;

DGBC heeft vandaag een aparte BREEAM-NL richtlijn voor datacenters gelanceerd. “Vanwege de specifieke functie en energievraag is het namelijk niet mogelijk om dit type bouwwerken met de huidige BREEAM-NL Nieuwbouw richtlijn te beoordelen”, legt DGBC-projectmanager Maarten Dansen uit. De eerste projecten zijn reeds bezig met certificeren en er staan steeds meer partijen in de rij om dit voorbeeld te volgen. Tot de eersten behoren EvoSwitch Datacenter en netbeheerder Ziggo.

“Zowel vanuit de markt als de overheid bestond al langer de behoefte aan een duurzaamheids- keurmerk voor datacenters. Daarom is een functie specifieke beoordelingsrichtlijn (BRL) ontwikkeld. We hebben met ondersteuning van Agentschap NL en samen met partijen als Ziggo en EvoSwitch de BREEAM-NL Datacenters ontwikkeld.

Het is goed om te zien dat er steeds meer aspecten van datacenter bouw en beheer bekeken worden vanuit een duurzaamheidsblik.

De ontwikkelde template is in korte tijd tot stand gekomen met medewerking van diverse industrie organisaties. Theoretisch is hij uitstekend bruikbaar en de eerste praktijk casussen moeten aantonen waar mogelijke gaten zitten of verbeteringen nodig zijn.

Credits voor mijn datacenter collega van Ziggo – Michel Bosman (die mooie dingen aan het doen zijn op datacenter gebied) en credits voor de projectleider Frank Zegers. We hebben een mooie eerste stap neergezet voor duurzame datacenter bouw.

Kritiek

Tijdens de ontwikkeling werd door de DGBC richting leden van ICT~Office aangekondigd dat deze BREEAM template in ontwikkeling was. De meest gehoorde reactie was "niet weer een certificaat er bij!"

Nu is het aantal certificaten op duurzaamheid in datacentra beperkt. Men kan kijken in de richting van ISO (zoals de 14001), maar deze zijn vooral gericht op exploitatie en niet zo zeer bouw. Daarnaast zou BREEAM niet nieuw moeten zijn, zeker niet voor kantoor gebouw eigenaren. Ongeveer 20% van alle kantoor gebouwen word op dit moment neer gezet met een BREEAM certificaat.

Daarnaast geeft BREEAM, in tegenstelling tot LEED, mogelijkheden tot subsidie vanuit de MIA. Dit betekend dat het financieel interessant kan zijn om de certificering te doorlopen. Ook extra kosten rond duurzaamheid kunnen hier mee (deels) gedekt worden. Vol op kansen dus…

Zoals de Datacenter Pulse Stack ook aangeeft, bestaat het gehele datacenter uit diverse bouwblokken. Deze kennen allemaal hun eigen karakteristieken en metrieke voor duurzaamheid. Ook bouw en exploitatie zijn verschillende doorsnede hier in. Uit eindelijk ontkomen we dus niet aan een verzameling van certificaten (ISO, BREEAM, LEED, CEEDA,..) en metrieke (PUE, CUE, WUE,..) voor het totale datacenter.

Dit holistische idee is ook door de Green Grid opgepakt: http://jwiersma.wordpress.com/2011/03/18/the-green-grid-verruimt-scope/

Presentatie van BREEAM-NL & datacentra: http://www.ictgaatvoorgroen.nl/pg/file/read/6121/presentatie-dgbc-breeam-datacenters

Datacenter relevante (energie) wetgeving – whitepaper

The green gridDe Green Grid heeft een nieuw whitepaper uitgebracht: White Paper #44 – Energy Policy Research and Implications For Data Centres In EMEA. Het document telt 216 pagina’s aan relevantie wetten, regelgeving en subsidie mogelijkheden op het gebied van energie verbruik en relevante gebieden. Diverse landen in de EMEA regio worden behandeld, waar onder Nederland, Duitsland, Frankrijk, UK, maar ook Zuid Afrika en Rusland. Het document is een product van de EMEA Technical Commissie van The Green Grid, onderleiding van Harkeeret Singh. CBRE was verantwoordelijk voor het uitvoeren van het onderzoek. Het document is beschikbaar voor Green Grid leden en komt op termijn beschikbaar voor niet-leden.

Als voorbeeld de inhoudsopgave voor het Nederlandse deel:

  • 8 Netherlands
  • 1. EU and International Policies
  • 1.1. European Performance of Buildings Directive & Energy Performance Certification
  • 1.2. The Energy Labelling Directive (92/75/EEC)
  • 1.3. EU Ecolabel/Flower
  • 1.4. European Commission Code of Conduct on Data Centre Energy Efficiency
  • 1.5. Eco-Design Directive for Energy-Using Products (2005/32/EC)
  • 1.6. Certain Fluorinated Greenhouse Gases (EC Regulation 842/2006)
  • 1.7. EU GHG Emission Trading Scheme (Directive 2003/87/EC)
  • 2. National Policy Context .
  • 2.1. Decree Energy Performance of Buildings (BEG)
  • 3. Regulatory Obligations
  • 3.1. Building Regulations: Bouwbesluit
  • 3.2. Planning: Spatial Planning Act
  • 3.3. Spatial Planning Act (Wet op de ruimtelijke ordaening)
  • 3.4. Environmental Management Act (2004)
  • 4. Financial Costs
  • 4.1. NOx emissions trading
  • 4.2. Carbon Taxes
  • 5. Financial Incentives
  • 5.1. Tax incentive: EIA (Energy Investment Allowance) .
  • 5.2. Financing Support and Interest-Free Loans
  • 5.3. Feed-in Tariffs (FITs)
  • 6. Voluntary Mechanisms
  • 6.1. BREEAM-NL
  • 6.2. Green Fan
  • 6.3. More with Less Programme
  • 6.4. InfoMil
  • 6.5. Energy Star

 

Energie verbruik Datacentra stabiliseert ??!?

Op 1 augustus j.l. kopte de New York Times:

Data Centers’ Power Use Less Than Was Expected

Data centers’ unquenchable thirst for electricity has been slaked by the global recession and by a combination of new power-saving technologies, according to an independent report on data center power use from 2005 to 2010.

Het artikel is gebaseerd op een onderzoek van Jonathan G. Koomey die voor Stanford University werkt en een bekende is in de datacenter wereld met eerdere onderzoeken.

Het onderzoek komt tot de conclusie dat de energie afname voor datacentra niet zo hard gegroeid is als eerder voorspeld werd in de rapporten van de EPA.

koomey-research

De reden voor de verminderde groei zou te vinden zijn in:

  • Economische crisis –> minder server verkoop en datacenter bouw;
  • Verminderde server aankoop door virtualisatie;
  • Inzet van energie efficiënte technologieën in IT systemen en datacentra.

Minder servers?

De eerste twee redenen zouden uit de server verkoop cijfers te halen moeten zijn en dat doet Koomey aan de hand van IDC cijfers van 2007 v.s. 2010. (pagina 20 rapport). Als we deze cijfers langs die van een andere markt analist liggen, Gartner, komen deze redelijk overeen. In september 2009 gaf Gartner aan dat de server verkoop zo’n 28% lager was dan die periode een jaar geleden (2008);

In the second quarter of 2009, worldwide server shipments dropped 28 per cent year-on-year, while revenue fell 29.4 percentage points year-on-year, according to Gartner, Inc.

“The server market remains constrained on a worldwide level,” said Jeffrey Hewitt, research vice president at Gartner. “Server sales have felt the impact of reduced budgets since the last half of 2008 and the second quarter of this year remained in the negative.”

In mei 2010 rapporteerde ze dat er een groei geboekt was van 23% ten opzichte van het voorgaande jaar (2009);

Worldwide server shipments grew 23 percent year over year in the first quarter of 2010, while revenue increased 6 percent, according to Gartner, Inc.
"We’ve seen a return to growth on a worldwide level, but the market has not yet returned to the historical quarterly highs that were posted in 2008,

Maar de groei was nog niet op het niveau van 2008. In november 2010 werd nog steeds groei gemeten van zo’n 14%. IDC gaf recent aan dat de verkoop in de lift zit en behoorlijk zal stijgen. Dit zou te danken zijn uit de wereldwijde uitrol van cloud computing initiatieven;

Investments in private and public clouds will spur worldwide server sales over the next four years to the tune of $9.4bn (£5.8bn), according to IDC.

<IDC> estimates 1.2 million systems that underpin public cloud deployments will be shipped by 2015, a compound annual growth rate of 21 per cent and 570,000 servers to be sold for private cloud implementations, CAGR of over 22 per cent.

Bij al deze server markt groei cijfers moet echter wel opgemerkt worden dat ze wel relatief zijn en zeggen niets over het feit of het energie efficiënte modellen zijn en of deze in hoog efficiënte datacentra terecht komen. Daarnaast is de focus van de eerder genoemde energie groei in datacentra onderzoeken, die van de US situatie en moeten de server verkoop cijfers dus per geografische markt bekeken worden.

Het lijkt echter valide om te stellen dat de dalende server verkoop heeft bijgedragen aan de verminderde groei van energie afname van datacentra.

Energie afname per server.

Als we kijken naar energie afname in een datacenter dan zien we dat er een hele energie keten is waar verbruik en verlies in optreed. Deze is duidelijk te zien in de DatacenterPulse Stack  of het Cascade Effect van Emerson:

The_cascade_effect

Deze laatste geeft een aardig beeld waarbij elke watt die bespaard word bij de bron totaal 2,84 watt aan besparing levert. Dit is uiteraard afhankelijk van alle schakels die er tussen zitten en de efficiëntie daar van. Als we kijken naar de totale energie last van een datacenter is het dus zeker interessant om te kijken naar de ontwikkeling van server componenten in de afgelopen jaren.

Dus de HP power calculator gepakt en een theoretische berekening gemaakt:

Productie Jaar Type CPU’s RAM HD Afname
2003 DL360 2 (PII) 4 2x 18GB 176W
2004 DL360G3 2 8 2x 36GB 360W
2008 DL360G5 2 (Intel L5240) 8 (low power) 2x 36GB 238W
2011 DL360G7 2 (Intel L5630) 8 (low voltage) 2x 60GB SSD 160W

Los van het feit dat dit een theoretische benadering is en n
ogal hoog over, levert het een aardig aanknopingspunt: in de server ontwikkeling hebben we een grote sprong gezien in energie toename met de komst van snellere systemen. Echter zijn er in de afgelopen 2 a 3 jaar grote stappen gemaakt in het terug dringen van dat energie verbruik. In bovenstaande berekening zien we dat een snelle quadcore machine met solid-state disken minder energie verbruikt dan zijn broertje met een Pentium 3 CPU uit 2003.

Een collega zetten mij recent op dit spoor toen we keken naar het aantal ampère dat er per rack verbruikt word en de groei hier van; bij rackmount servers bleek dit redelijk te stabiliseren en op bepaalde vlakken zelfs te dalen.

We kunnen dus wel stellen dat de servers die vandaag de dag gekocht worden zuiniger zijn dan voorheen en zeker bijdragen aan de daling die gesignaleerd word in het rapport van Koomey. Zeker als we het cascade effect er nog eens overheen gooien. De combinatie van efficiëntere servers, die beter uitgenut worden door virtualisatie zal het verhaal alleen nog maar versterken.

De grote glazen bol

De vraag is nu echter waar gaat het de komende jaren heen en zet de daling zich voort of is het slechts uitstel van executie? Het antwoord hier op ligt op een aantal vlakken:

1. Besparingen.

De ontwikkeling van energie zuinige servers zet zich voort. Neem als voorbeeld de inzet van de ARM en Atom CPU voor servers. Mensen die recent een keynote van mij hebben gevolgd weten dat ik daar een fan van ben en deze ontwikkeling op de voet volg. Voorbeeld: Low-power server startup pitches Intel Atom for Hadoop en zoals Gigaom enige tijd geleden melde:

ARM-based servers will consume a fraction of the power and space demanded by today’s most efficient servers. Performance per “core” will be lower, but clusters of these efficient nodes will consume perhaps as little as 1/10th as much power to deliver comparable performance. Couple that with huge gains in performance density to realize massive savings potential in data center capital expenditures.

De ontwikkelingen op het efficiëntie gebied van datacentra gaat ook door. De grote datacentra ontwikkelen zich langzaam naar de PUE onder de 1.1. Daar zien we de ontwikkeling in technologie en de discussie over temperatuur in het datacenter die ik al eerder in een blog behandelde. Er blijft echter een groot markt aandeel van kleiner datacentra die zich nog nooit druk heeft gemaakt over PUE. Deze zitten o.a. in kantoorpanden met hun datacentra. Google is nu gestart met een stuk bewustwording voor dit deel van de markt met de publicatie van hun Best practices

2. Groei.

Zoals ik beschreef in de Jevons Paradox blog zullen we de komende jaren behoorlijke groei zien in de cloud computing markt. Dit levert verhoogde afname van servers zoals IDC dus al schetste. Ook zal dit leiden tot meer en grotere datacentra. (Deze servers en datacentra zijn dan hopelijk wel zo efficiënt mogelijk..) Dit werd ook geschetst door Christian Belady (Microsoft) bij zijn toekomst schets van datacenter bouw markt.

Met de mate van groei in afname van cloud computing producten die nu al te zien is in de markt denk ik echter dat we Gartner (2007!) gaan volgen:

image

Ze hadden dan wel niet de economische crisis zien aankomen toen ze deze in 2007 opstelde, maar die scherpe daling mede dankzij nieuwe (efficiënte) technologieën is heden ten dagen wel te zien. De energie consumptie zal daarna weer toe nemen wegens de massale groei aan servers en datacentra vanuit Jevons paradox. Zoals Simon Wardley daarbij aangeeft:

By increasing efficiency and reducing cost for provision of infrastructure, a large number of activities which might have once not been economically feasible become economically feasible.

The effect of these forces is that whilst infrastructure provision may become more efficient, the overall demand for infrastructure will outstrip these gains precisely because infrastructure has become a more efficient and standardised component.

De ontwikkeling in energie efficiënte servers en datacentra zal de groei iets temperen maar de vraag is daarbij enkel: hoe hard gaat de totale groei en volgens welk (EPA) scenario ?

Meer: Blog J. Koomey

 

Continue with reading

The Green Grid verruimt scope

Begin maart 2011 vond het Green Grid Technical Forum plaats in Santa Clara (California, USA). Tijdens dit evenement werd door de kersverse Executive Director Mark Monroe een nieuwe richting voor The Green Grid (TGG) aangekondigd.

De afgelopen jaren is TGG zeer succes vol geweest in creëren van aandacht voor energie efficiëntie. Dit gebeurde o.a. met de door hun ontwikkelde Power Usage Effectiveness (PUE). Dit meetinstrument voor de energie efficiëntie van je datacenter omgeving is inmiddels internationaal geaccepteerd en de meeste kaders voor het vaststellen en gebruik van PUE zijn bepaald.

Mark Monroe kreeg begin 2011 de leiding over The Green Grid. Hij heeft jaren lange ervaring op datacenter gebied en was de laatste jaren actief op het gebied van algemene duurzaamheid voor bijvoorbeeld SUN. Hij is ook geen onbekende voor TGG omdat hij 1 van de mede oprichters is. Zijn brede kennis op het duurzaamheids vlak past perfect bij de nieuwe richting die TGG nu neemt.

Op het EMEA Tech Forum (begin 2011) werd al eerder bekend gemaakt, dat men 2 nieuwe efficiëntie eenheden wilde introduceren:

…; Carbon Usage Effectiveness (CUE) en de Water Usage Effectiveness (WUE), zoals ook aangekondigd in recent persbericht:

The new metrics, called Carbon Usage Effectiveness (CUE) and the upcoming Water Usage Effectiveness (WUE), are joining The Green Grid’s widely-used Power Usage Effectiveness (PUE) metric. All are designed to help IT, facilities, and sustainability organizations across the globe optimize their data centers.

Hier mee werd al duidelijk dat de focus voor TGG verschuift van enkel energie efficiëntie naar de duurzaamheid van het gehele datacenter, waar water verbruik ook een belangrijk deel van uit maakt.

Mark Monroe legt de scope wijziging uit:

[youtube=http://www.youtube.com/watch?v=uwQOON42C_w&w=448&h=252&hd=1]

TGG Data Center Maturity Model Mat-model-TGG

Een goed voorbeeld van deze brede aanpak is het Data Center Maturity Model dat tijdens het Technical Forum officieel gepubliceerd werd. Waar voorheen door TGG vooral gekeken werd naar energie efficiëntie op het facilitaire datacenter niveau, word in dit model gekeken naar alle componenten uit de IT keten.

Het model bekijkt facility (met o.a. power, cooling en management) en IT (met compute, storage en network). De volwassenheid op dit vlak kan in kaart gebracht worden op een schaal van 0 (onvolwassen) tot 5 (leading edge). Zodra er bepaald is waar de organisatie staat op deze schaal, kan er een route uitgezet worden naar het volgende niveau. Op deze manier kan het management voor elk vlak een doel uitzetten voor de komende 2 a 3 jaar. Het model geeft daarbij de mogelijkheid om per vlak een score toe te passen. Zo kan een organisatie dus op datacenter cooling een 3 scoren en op IT storage een 2.

Mat-model-TGG2

The model’s Level 0 means a data center’s maturity is minimal and shows no progress. Level 5 – the highest mark – designates the data center as ‘visionary’.
“The initial levels chart the progress of a typical data center that has taken no efficiency improvement measures to one exemplifying the state of an average data center to one that employs current best practices,” reads the organization’s paper on the model.

Het laagste niveau (Level 0) beslaat een omgeving waar in weinig tot geen aandacht is voor energie efficiëntie. Bij Level 1 en 2 past men de industrie best practices uit. Dit zijn de basis best practices die in geruime maten beschikbaar zijn in de markt op dit moment. Level 5 word bestempeld als visionair. Vanaf Level 3 treffen we technologieën aan die leading edge zijn en volop in ontwikkeling. De gedachte hierbij is dat de markt en technologie over ongeveer 5 jaar de onderdelen uit Level 5 als gemeengoed zou moeten zien. Op deze manier probeert TGG zowel de markt als eind gebruikers te stimuleren gezamenlijk te werken aan nieuwe energie efficiënte oplossingen.

De verwachting is dat state-of-the-art data centers zich zullen ontwikkelen van een Level 2 naar Level 5 rond 2016 (groene lijn) . Een generiek datacenter zal zich ontwikkelen naar Level 3 (gele lijn) en slechter presterende datacentra zullen achter blijven en zich ontwikkelen naar Level 2 (rode lijn). 

Mat-model-TGG3

Het Data Center Maturity Model is uiteraard een levend document waar van op dit moment versie 1 is uitgegeven. Naar mate de technologie en mogelijkheden zich door ontwikkelen, zal ook het model bijgewerkt worden.

Zoals ook destijds bij de PUE ontwikkeling, is het model niet bedoeld als marketing instrument of als vergelijking tussen bedrijven onderling (benchmark). Het model is bedoelt als interne toetsing en handvat voor de interne door ontwikkeling van energie efficiëntie.

Uitgebreide uitleg over het model door Harkeeret Singh (chair of The Green Grid’s EMEA technical committee):

[youtube=http://www.youtube.com/watch?v=1Q8zNjEitS8&w=448&h=252&hd=1]

 

Het model is hier te vinden. De bijbehorende whitepaper hier.

Datacenter Pulse Summit

Voorafgaand aan het Green Grid Technical Forum organiseerde Datacenter Pulse (DCP) een dag voor hun leden. Dit in het kader van de alliantie tussen Datacenter Pulse en The Green Grid. Tijdens deze bijeenkomst, waar alleen datacenter eigenaren en eindgebruikers welkom waren, werd gekeken naar
de richting die The Green Grid aan het nemen is en werd hier feedback op gegeven. Ook werd er gekeken wat de top 10 zaken zijn die datacenter eigenaren ‘s nachts uit hun slaap houd. De behandelde onderwerpen waren:

  • DCP Stack Revision & TGG Maturity Model
  • Green Grid Input
    • Data Center Design Guide, WUE/CUE Metrics
    • The Collision Course of Site Selection and Sustainability
  • Modularity, Density, & High-Temp (Combined)
    • Gages – Modular DC RFP Process, Modularity readout interest, & Chill Off work
  • Operational Challenges: What keeps you up at night?

DCP Stack

De DCP stack is al weer 2 jaar oud en werd onderworpen aan een kritische blik. De huidige versie (2) is bedoelt als referentie model om gespreken binnen organisaties makkelijker te maken en onderlinge relaties en afhankelijkheden te kunnen laten zien. De rechterzijde van het model, dat handelt over duurzaamheid in relatie tot datacenter input (zoals stroom en water) en output, was o.a. de aanleiding voor TGG om te werken aan het Data Center Maturity Model. Deze 2 modellen komen hier mooi samen.

dcp-tgg11

(klik voor groter plaatje)

In het model is ook mooi aan te geven welke ‘convergence’ (versmelting) er op dit moment gaande is in de datacenter en IT industrie. Zo zien we cloud computing, datacenter containers en IT appliances, die allemaal hun druk uitoefenen op de totale IT keten.

Ook werd nogmaals duidelijk dat bij het doorvoeren van duurzaamheids oplossingen, vooral naar de hele keten gekeken moet worden omdat punt oplossingen elkaar negatief kunnen beïnvloeden. Hier over schreef ik ook al eerder.

DCP Top 10

De Top 10 zaken die datacenter eigenaren ‘s nachts uit hun slaap houden werd ook bijgewerkt. Deze werd voor het eerst gepubliceerd in 2009.

dcpt10-09dcpt10-10 dcpt10-11

Voor 2011 zijn de Top 10 aandachtspunten:

  1. Industry Alignment
  2. Standardized Stack Framework
  3. Data Center Certification
  4. Move from Availability to Resiliency (new)
  5. More products enabling modularity
  6. Simple, top-level efficiency metric
  7. Wire-line Power Network
  8. Liquid Cooled IT Equipment Options (new)
  9. Expanded IT Equipment Power Options
  10. Infrastructure Intelligence (Convergence) (new)

Datacenter Pulse zal zich uiteraard in 2011 weer inzetten om deze onderwerpen onder het voetlicht te krijgen bij de juiste organisaties en leveranciers en op deze manier het leven van de datacenter eigenaar weer iets makkelijker te maken.

De volledige presentatie van DCP, met alle behandelde onderwerpen, is terug te vinden op TGG website.

Datacenter temperatuur & ARBO

Naar aanleiding van mijn blogs over temperatuur verhoging (recent en in het verleden) en presentaties die ik daar over gegeven heb, kreeg ik vragen over de nieuwe omgevings condities en of je daar in wel mag werken.

hp-hot-tubDe vraag: als de inlet temperatuur van servers naar 27C of hoger gaat (in de koude gang), dan word de achter kant (warme gang) wel heel erg warm (40+). Daar kan ik dan niet fatsoenlijk meer werken zonder een zwembroek.

Toen ik in 2007 verantwoordelijk werd voor o.a. het beheer van een datacenter, heb ik door een ARBO dienst een onderzoek laten uitvoeren naar de werkomstandigheden in een datacenter. Voor de temperatuurs condities was het volgende grof weg het antwoord:

Met de invoering van het arbobesluit in 1997 werd de zogenoemde PMV-index gelanceerd. Deze index is de uitkomst van een uiterst ingewikkelde berekening die allerlei zaken meeneemt: temperatuur, luchtvochtigheid, luchtsnelheid, kleding en te verrichten werkzaamheden.
De stelling is vervolgens dat het binnenklimaat behaaglijk is als de PMV-index tussen de 0,5 en -0,5 ligt of als minder dan 10% van de werkzame personen klachten over het klimaat meer zal hebben. Een overschrijding van deze normen gedurende 10% van de werktijd wordt overigens acceptabel gevonden. Het probleem is dat deze officiële norm heel ingewikkeld in elkaar zit: het vraagt een hoop meet- en rekenwerk.

Als je naar de onderliggende onderzoeken en documenten kijkt, zien we dat boven de 26C spraken is van extra belasting. Die grens word vooral bepaald door de lichamelijke inspanning van het werk. Zo is bij licht kantoor werk 30C de grens en bij zware lichamelijke inspanning 25C. Ook maakt het uit of er een voelbare luchtstroom is. Deze zorgt namelijk voor verlaging van de gevoelstemperatuur. Boven de grens moet de werkgever inspanningen doen om de belasting te verlagen. Dit kan zijn door korter werken, zo kort mogelijk aaneengesloten werken, pauzeren in koele ruimtes, aangepaste kleding, extra ventilatie, veel (sportdrank) drinken.

Als we naar de datacenter omgeving kijken zien we dat deze temperatuur grens al snel gereikt word, ook in een traditionele omgeving. Neem een omgeving met server inlet temperatuur van 21C en blade servers met een delta T van 15C (verschil tussen voor en achter kant), dan komen we op 36C in de warme gang.

Bij temperaturen hoger dan 26C in het datacenter, dienen we dus rekening te houden met speciale eisen voor de arbeidsomstandigheden. Bij hogere temperaturen dan in de traditionele omgevingen zal dit leiden tot aanvullende maatregelen maar niet een (wettelijke) onwerkbare situatie.   

Let wel: bij werken in het datacenter word je bloot gesteld aan tal van omgevings factoren. Denk hier bij aan lawaai van server ventilatoren en koeling, het ontbreken van daglicht, aanwezigheid van zware stroom voorzieningen (400v) en aanwezigheid van zware machines (kg). Temperatuur is slechts 1 onderdeel. Welke maatregelen precies gewenst zijn moet per geval worden bekeken door deskundigen, bijvoorbeeld door een arbeidshygienist van de arbo-dienst.

Meer: