JanWiersma.com

Datacenter Pulse Top 10 – 2012

Tijdens de afgelopen Datacenter Pulse Summit 2012, werd de Top10 opnieuw vastgesteld. De Top10’s van de afgelopen jaren (klik voor groter formaat):

image image

image

Het doel van deze Top10 is de datacenter leveranciers een indruk te geven van de problemen waar datacenter eigenaren (dagelijks) mee worstelen.

De 2012 Top10 bestaat uit de volgende elementen:

1. Facilities and IT Alignment:  Al jaren is de kloof tussen facilitair en IT een probleem voor veel bedrijven. De uitdaging is om een gemeenschappelijke taal te ontwikkelen, kosten transparant te maken en technologieën op elkaar te laten aansluiten. Grote bedrijven zoals Microsoft, Google en eBay hebben dit probleem reeds onder controle. In de rest van de ICT sector moet dit zijn beslag nog krijgen.

2. Simple, top-level efficiency metric: Data Center Pulse komt met een voorstel voor een Service Efficiency metriek, welke uitgebreid behandeld is door datacenter eindgebruikers tijdens de afgelopen DCP Summit. Het voorstel bevat een framework die zou moeten werken als een liter-op-kilometer model voor datacentra. Het voorstel word deze zomer uitgewerkt en daarna uitgebracht. Meer info in deze  video.

3. Standardized Stack Framework: Al enkele jaren word er gewerkt aan de Data Center Stack. Deze lijkt op het OSI Model, maar dan voor de hele datacenter keten. De 7 lagen in de Stack helpen om de conversatie tussen IT en Facilitair op gang te brengen en relaties tussen onderdelen aan te geven. Versie 2.1 is uit gegeven en word met hulp van andere organisaties zoals Green Grid verder uitgewerkt.

4. Move from Availability to Resiliency: Nu de weerbaarheid applicaties om uitval op te vangen steeds groter word en men beschikbaarheid met geografische spreiding kan oplossen, betekend dit dat men anders kan gaan nadenken over beschikbaarheid in het fysieke datacenter. Het goed uitwerken van deze balans kan kosten verlagen en uiteindelijk beschikbaarheid dramatisch verhogen.

5. Renewable Power Options: Dit is een typisch US probleem; de beschikbaarheid van ‘groene’ stroom mogelijkheden is beperkt in de US. “The lack of cost-effective renewable power is a growing problem for data centers, which use enormous volumes of electricity. Data Center Pulse sees potential for progress in approaches that have worked in Europe, where renewable power is more readily available than in the U.S. These include focusing business development opportunities at the state level, and encouraging alignment between end users, utilities, government and developers.”

6. “Containers” vs. Brick & Mortar: Zijn containers en modulaire ontwerpen realistische optie? Nu steeds meer organisaties hier mee aan de slag gaan, is het belangrijk om hier over de juiste informatie te delen. Een modulair ontwerp dat bij de ene organisatie past, hoeft niet noodzakelijker wijs ook bij de andere. Ook zijn er hybride ontwerpen mogelijk waarbij een bijvoorbeeld een container onderdeel kan uit maken van de bestaande installatie.

7. Hybrid DC Designs: De hybride benadering geld voor modulaire ontwerpen maar ook voor de TIER levels en de redundantie van mechanische en elektrotechnische systemen. Steeds meer datacenter eigenaren besparen geld door het datacenter slim in zones te verdelen waarbij verschillende niveuas van beschikbaarheid mogelijk zijn.

8. Liquid Cooled IT Equipment Options: Voor veel IT operaties is het belangrijk om de hoeveelheid werk per Watt te verhogen. Een hogere densitie (kW) per rack kan hier een positieve rol bij spelen. Hier door komen de limieten van luchtkoeling in beeld en word vloeistofkoeling economisch interessanter. .

9. Free Cooling “Everywhere”: Uit de recente case study van Green Grid over het eBay Project Mercury blijkt dat 100% vrije koeling, het gehele jaar, zelfs mogelijk is in plaatsen als Phoenix (AZ, USA) waar het zomers meer als 45C kan worden. Engineers moeten verder uitgedaagd worden om dit soort opties uit te werken en producten te ontwikkelen die dit ondersteunen.

10. Converged Infrastructure Intelligence: Data center operators moeten hun infrastructuur kunnen benaderen als een geheel systeem. Hierbij dient meting en controle op basis van integratie tussen IT en facilitaire techniek mogelijk te zijn. Datacenter Infrastructure Management (DCIM) is onderdeel van deze trend, maar er is nog veel werk nodig om protocollen en connecties te standaardiseren.

Hier de video met de uitleg van Dean Nelson en zijn blog:

[youtube=http://www.youtube.com/watch?v=FhBcTJ3H5OA&w=448&h=252&hd=1]

 

DCP Summit 2012

Dit alles werd samen gesteld op de 2012 Datacenter Pulse Summit vorige week, waar van hier een samenvatting:

[youtube=http://www.youtube.com/watch?v=eugWuhzszbQ&w=448&h=252&hd=1]
Share

The ‘green’ PUE monster…

<sorry Dutchies.. this one is in English… sort of..>green-monster

My fellow Datacenter Pulse (DCP) colleague Mark Thiele wrote a good article on the use of PUE in the datacenter industry. He basically argues that you should look at the TCO of the datacenter and have a holistic view (like we promote with the DCP stack)

He opens with the ‘my PUE is better than yours remark’ we see going around in the industry. This is mentioned before by the Green Grid; the misuse of PUE. (I have written several articles about this issue on my Dutch datacenter blog)

Well guess what… we kinda created this monster ourselves;

Commodity

Datacenter are going commodity. Differentiation is in efficiency; looking at all the signs in the datacenter industry: the datacenter is becoming a commodity. The general idea is that any successful product will end up a commodity. See Simon Wardley’s excellent presentations on this subject.

Example signs are:

(got lots more, but for an other blog and beyond the point now…)

Most of this leads to technology being available to everyone. You still need a big budget to start building a datacenter but cost is coming down thanks to advances in IT technology (like: do we still need to build TIER4?) and facility technology. Great example is the option to build modular and from an assembly line. This reduces datacenter production cost and you can spread CAPEX across time.

For any commodity product the competitive advantage diminishes, prices go down and if you’re in the market of selling the stuff: your differentiation is on price and efficiency.

So we push towards efficiency and lowering our operational cost, to be cheaper that the competition. It doesn’t matter what type of datacenter owner you are (enterprise, cloud, co-lo, whole sale..) the competitive advantage is in the operational cost. Everyone already has a SAS70, ISO27001, ISO9001, PCI, etc.. certificate. Everyone can get and build the technology and at some point it doesn’t pay off to worry about the small engineering details anymore; the cost are too high to get enough competitive advantage in return.

Marketing & Sales

If you’re in the datacenter co-lo or whole-sales business then your marketing and sales guys are trying to look for the (next) USP.

With the datacenter efficiency on the rise, it’s nice to have a single figure to tell your customer you are more efficient that the competition (and able to offer lower prices with it..).

PUE presented a great opportunity to get a nice USP for our sales guys. And I can’t blame them: it’s hard to sell a (going) commodity product and it’s something our customers are asking for.

Sustainable & marketing

The whole ‘green wash/hype’ (before the economic crisis) added to the misuse of PUE from a sales and marketing perspective. Everyone was, and still is, building the next greenest datacenter on this planet. It would be nice to have a single figure to promote this ‘green stuff’ and tell the world about this new engineering marvel… and PUE is happily adopted for this.

On the enterprise/cloud datacenter owners side it’s not very different.. it’s just another angle. Especially the larger datacenter (cloud) owners are pushed from a marketing perspective thanks to organizations like Greenpeace. They demand full disclosure of datacenter energy use and sustainability on behalf of the world’s population.

PUE is a nice tool to get some of the pressure off and tell the world you have the greenest datacenter operation, like Facebook, Google, Microsoft and others are now doing. The problem with those numbers is they don’t say anything without the full context. And like Mark says in his article; it doesn’t say anything about the full datacenter stack.

Sustainable & Government

The really interesting thing I have been dealing with recently is government and PUE.

Many state and local government organizations are looking at datacenters from an energy use perspective. This focus is thanks to reports from research and governmental institutes (for example EPA) and organizations like Greenpeace.

Government can either use the ‘carrot (subsidies) or stick (penalties)’ approach but it always requires some kind of regulation and some form of measurement. They happily adapted PUE for this.

The main problem with this is that PUE is not ready to be audited. Sure general guidelines for PUE calculation are available, but it still doesn’t have all the full details and leaves opportunity to ‘game the system’. It also doesn’t address the full holistic datacenter approach and the fact that you cannot use PUE to compare different datacenters.

Datacenter customer

Some of the governmental organizations are also using PUE for their co-lo tenders. And they are not the only ones. More and more RFP’s on the datacenter market state a specific PUE number or target with additional credits for the lowest number.

I can’t blame the datacenter customer; the datacenter is a pretty complex facility box if you’re not educated in that industry. It would be nice to just throw some numbers at it like TIER1-4 and PUE1-2 and select the best solution provider on the market…

I can’t blame the datacenter owner for the answer with ‘the best possible number he can think of’… they just want the business…

Datacenter vendor

As usual I’m part of the problem also. When I go shopping for the next big thing in datacenter technology, PUE is always part of the conversation.

Datacenter equipment vendors (especially cooling and power) are happy to throw some numbers my way to convince me that their solution is the most efficient.

The PUE numbers are on the equipment spec sheets, on the vendor website and in the sales meeting… but at the end I always have to conclude that our little number dance really doesn’t tell me anything. Just like Mark mentions: I go back to TCO.

Our own monster

So… we created this monster as a datacenter industry. Owners and consumers. Government and industry groups. I can also assure you that this will continue and will also happen to some of the great other Green Grid initiatives like CUE, WUE and the Maturity Model. It’s just a way of trying to put a number on what can be a very complex stack of functions called ‘the datacenter’.

Only way to diminish the monster is to educate our industry colleagues and our customers. And stop throwing the numbers around…

For the record1: the use of PUE

Don’t get me wrong, I love PUE and have used it successfully many times to benchmark my own data centers and prove to senior management that we progressed in efficiency. It’s also the way the EU Datacenter Code of Conduct works: show progress every year by calculating the PUE for the same datacenter with the same calculation method. This way you will have apples – apples situation.

Its just that I don’t like the way PUE is used in the above examples…

For the record2: On datacenter and green

Full disclosure: Datacenters are not green and will never be green. They consume large amounts of energy and will consume more energy in the future. All thanks to Jevons Paradox and the fact that we start to consume more CPU/Storage if prices go down…. And yes, someone has to build datacenters for all the CPU’s and disk’s…

See GreenMonk – Simon Wardley on ‘Cloud & Green’

I do think that:

1. We should aim to build the most efficient datacenters on the planet. It should not only focus on energy consumption but on all resources used for build and operation.

2. We cannot keep up with the rising demand from an energy-grid perspective. We should start looking for alternative ways for datacenter builds and deployment.

Share

DCP start 2e open-RFP project

Zoals gisteren aangekondigd op Twitter en de DatacenterPulse website, is DatacenterPulse samen met eBay het 2e open RFP project gestart. Dit maal voor een datacenter ontwerp in Salt Lake City, Utah. Het project heeft de naam QuickSilver mee gekregen.

Bij het vorige open-RFP project Mercury werd de datacenter ontwerp markt uitgedaagd om een maximaal flexibel datacenter te ontwerpen voor eBay in Phoenix. Hierbij was ook de eis dat men het gehele jaar 100% free cooling toegepast kon worden. Daarnaast was de eis:

  • modulair TIER 1 t/m4 kunnen ondersteunen
  • modulair lucht koeling en water koeling kunnen ondersteunen
  • zowel normale racks als gehele datacenter containers kunnen ondersteunen
  • diverse rack vermogens kunnen ondersteunen

De winnende ontwerpen werden op 22 februari 2011 gepresenteerd aan de DatacenterPulse leden tijdens de Modularity Readout op de Google campus. Het project bereikte zijn doel: de markt uitdagen om met innovatieve ontwerpen te komen voor datacentra en deze kennis delen met andere datacenter eigenaren.

Project QuickSilver neemt de leerpunten uit het vorige open-RFP project mee voor de volgende uitdaging;

We are consutructing a new building on one of the three adjacent 15 acre phases of the Salt Lake City, Utah Data Center that we opened in 2010. You can see the phases from the arial photo below. The initial delivery of IT critial power will be 4MW, with scale to 30MW. The design must be completed in Q1 of 2012, with construction starting in Q2 and full commissioning complete by 12/21/2012.

Hierbij zijn de volgende eisen gesteld:

  • Server racks from 5-40kW
  • Server containers that can scale from 100kW and up.
  • All locations (racks & containers) must have air and hot-water cooling available
  • Expand power and cooling capacity in a modular basis
  • Ability to select or change Tier level from Tier 1 to concurrently maintainable Tier 2 or 3.
  • Free cooling year round in Utah
  • Rack or MEP UPS flexibility (choose)
  • 400V distribution to the server rack PDUs
  • Entire design must be highly cost effective.

De beste 5 ontwerpen worden ook weer gedeeld met datacenter eigenaren uit de 1500+ leden groep van DatacenterPulse.

[youtube=http://www.youtube.com/watch?v=LGSoBF_yZm4&w=448&h=252&hd=1]

 

De project pagina is hier: http://datacenterpulse.org/rfp/modular/quicksilver. De inschrijving is 19-8 geopend.

Share

The Green Grid verruimt scope

Begin maart 2011 vond het Green Grid Technical Forum plaats in Santa Clara (California, USA). Tijdens dit evenement werd door de kersverse Executive Director Mark Monroe een nieuwe richting voor The Green Grid (TGG) aangekondigd.

De afgelopen jaren is TGG zeer succes vol geweest in creëren van aandacht voor energie efficiëntie. Dit gebeurde o.a. met de door hun ontwikkelde Power Usage Effectiveness (PUE). Dit meetinstrument voor de energie efficiëntie van je datacenter omgeving is inmiddels internationaal geaccepteerd en de meeste kaders voor het vaststellen en gebruik van PUE zijn bepaald.

Mark Monroe kreeg begin 2011 de leiding over The Green Grid. Hij heeft jaren lange ervaring op datacenter gebied en was de laatste jaren actief op het gebied van algemene duurzaamheid voor bijvoorbeeld SUN. Hij is ook geen onbekende voor TGG omdat hij 1 van de mede oprichters is. Zijn brede kennis op het duurzaamheids vlak past perfect bij de nieuwe richting die TGG nu neemt.

Op het EMEA Tech Forum (begin 2011) werd al eerder bekend gemaakt, dat men 2 nieuwe efficiëntie eenheden wilde introduceren:

…; Carbon Usage Effectiveness (CUE) en de Water Usage Effectiveness (WUE), zoals ook aangekondigd in recent persbericht:

The new metrics, called Carbon Usage Effectiveness (CUE) and the upcoming Water Usage Effectiveness (WUE), are joining The Green Grid’s widely-used Power Usage Effectiveness (PUE) metric. All are designed to help IT, facilities, and sustainability organizations across the globe optimize their data centers.

Hier mee werd al duidelijk dat de focus voor TGG verschuift van enkel energie efficiëntie naar de duurzaamheid van het gehele datacenter, waar water verbruik ook een belangrijk deel van uit maakt.

Mark Monroe legt de scope wijziging uit:

[youtube=http://www.youtube.com/watch?v=uwQOON42C_w&w=448&h=252&hd=1]

TGG Data Center Maturity Model Mat-model-TGG

Een goed voorbeeld van deze brede aanpak is het Data Center Maturity Model dat tijdens het Technical Forum officieel gepubliceerd werd. Waar voorheen door TGG vooral gekeken werd naar energie efficiëntie op het facilitaire datacenter niveau, word in dit model gekeken naar alle componenten uit de IT keten.

Het model bekijkt facility (met o.a. power, cooling en management) en IT (met compute, storage en network). De volwassenheid op dit vlak kan in kaart gebracht worden op een schaal van 0 (onvolwassen) tot 5 (leading edge). Zodra er bepaald is waar de organisatie staat op deze schaal, kan er een route uitgezet worden naar het volgende niveau. Op deze manier kan het management voor elk vlak een doel uitzetten voor de komende 2 a 3 jaar. Het model geeft daarbij de mogelijkheid om per vlak een score toe te passen. Zo kan een organisatie dus op datacenter cooling een 3 scoren en op IT storage een 2.

Mat-model-TGG2

The model’s Level 0 means a data center’s maturity is minimal and shows no progress. Level 5 – the highest mark – designates the data center as ‘visionary’.
“The initial levels chart the progress of a typical data center that has taken no efficiency improvement measures to one exemplifying the state of an average data center to one that employs current best practices,” reads the organization’s paper on the model.

Het laagste niveau (Level 0) beslaat een omgeving waar in weinig tot geen aandacht is voor energie efficiëntie. Bij Level 1 en 2 past men de industrie best practices uit. Dit zijn de basis best practices die in geruime maten beschikbaar zijn in de markt op dit moment. Level 5 word bestempeld als visionair. Vanaf Level 3 treffen we technologieën aan die leading edge zijn en volop in ontwikkeling. De gedachte hierbij is dat de markt en technologie over ongeveer 5 jaar de onderdelen uit Level 5 als gemeengoed zou moeten zien. Op deze manier probeert TGG zowel de markt als eind gebruikers te stimuleren gezamenlijk te werken aan nieuwe energie efficiënte oplossingen.

De verwachting is dat state-of-the-art data centers zich zullen ontwikkelen van een Level 2 naar Level 5 rond 2016 (groene lijn) . Een generiek datacenter zal zich ontwikkelen naar Level 3 (gele lijn) en slechter presterende datacentra zullen achter blijven en zich ontwikkelen naar Level 2 (rode lijn). 

Mat-model-TGG3

Het Data Center Maturity Model is uiteraard een levend document waar van op dit moment versie 1 is uitgegeven. Naar mate de technologie en mogelijkheden zich door ontwikkelen, zal ook het model bijgewerkt worden.

Zoals ook destijds bij de PUE ontwikkeling, is het model niet bedoeld als marketing instrument of als vergelijking tussen bedrijven onderling (benchmark). Het model is bedoelt als interne toetsing en handvat voor de interne door ontwikkeling van energie efficiëntie.

Uitgebreide uitleg over het model door Harkeeret Singh (chair of The Green Grid’s EMEA technical committee):

[youtube=http://www.youtube.com/watch?v=1Q8zNjEitS8&w=448&h=252&hd=1]

 

Het model is hier te vinden. De bijbehorende whitepaper hier.

Datacenter Pulse Summit

Voorafgaand aan het Green Grid Technical Forum organiseerde Datacenter Pulse (DCP) een dag voor hun leden. Dit in het kader van de alliantie tussen Datacenter Pulse en The Green Grid. Tijdens deze bijeenkomst, waar alleen datacenter eigenaren en eindgebruikers welkom waren, werd gekeken naar
de richting die The Green Grid aan het nemen is en werd hier feedback op gegeven. Ook werd er gekeken wat de top 10 zaken zijn die datacenter eigenaren ‘s nachts uit hun slaap houd. De behandelde onderwerpen waren:

  • DCP Stack Revision & TGG Maturity Model
  • Green Grid Input
    • Data Center Design Guide, WUE/CUE Metrics
    • The Collision Course of Site Selection and Sustainability
  • Modularity, Density, & High-Temp (Combined)
    • Gages – Modular DC RFP Process, Modularity readout interest, & Chill Off work
  • Operational Challenges: What keeps you up at night?

DCP Stack

De DCP stack is al weer 2 jaar oud en werd onderworpen aan een kritische blik. De huidige versie (2) is bedoelt als referentie model om gespreken binnen organisaties makkelijker te maken en onderlinge relaties en afhankelijkheden te kunnen laten zien. De rechterzijde van het model, dat handelt over duurzaamheid in relatie tot datacenter input (zoals stroom en water) en output, was o.a. de aanleiding voor TGG om te werken aan het Data Center Maturity Model. Deze 2 modellen komen hier mooi samen.

dcp-tgg11

(klik voor groter plaatje)

In het model is ook mooi aan te geven welke ‘convergence’ (versmelting) er op dit moment gaande is in de datacenter en IT industrie. Zo zien we cloud computing, datacenter containers en IT appliances, die allemaal hun druk uitoefenen op de totale IT keten.

Ook werd nogmaals duidelijk dat bij het doorvoeren van duurzaamheids oplossingen, vooral naar de hele keten gekeken moet worden omdat punt oplossingen elkaar negatief kunnen beïnvloeden. Hier over schreef ik ook al eerder.

DCP Top 10

De Top 10 zaken die datacenter eigenaren ‘s nachts uit hun slaap houden werd ook bijgewerkt. Deze werd voor het eerst gepubliceerd in 2009.

dcpt10-09dcpt10-10 dcpt10-11

Voor 2011 zijn de Top 10 aandachtspunten:

  1. Industry Alignment
  2. Standardized Stack Framework
  3. Data Center Certification
  4. Move from Availability to Resiliency (new)
  5. More products enabling modularity
  6. Simple, top-level efficiency metric
  7. Wire-line Power Network
  8. Liquid Cooled IT Equipment Options (new)
  9. Expanded IT Equipment Power Options
  10. Infrastructure Intelligence (Convergence) (new)

Datacenter Pulse zal zich uiteraard in 2011 weer inzetten om deze onderwerpen onder het voetlicht te krijgen bij de juiste organisaties en leveranciers en op deze manier het leven van de datacenter eigenaar weer iets makkelijker te maken.

De volledige presentatie van DCP, met alle behandelde onderwerpen, is terug te vinden op TGG website.

Share

GreenGrid bijeenkomst A’dam.. meer afkortingen..

Afgelopen week was er in Amsterdam de jaarlijkse EMEA Green Grid Tech Forum. Tijdens deze bijeenkomst worden nieuwe ontwikkelingen gedeeld met leden en niet-leden (in de ochtend).green-grid

De afgelopen jaren is de Green Grid vooral bezig geweest met het neerzetten van PUE en de ontwikkelingen daar rond om. Hier is men redelijk succesvol in geweest en dat smaakt naar meer. Voor de komende jaren gaat de focus op enkele andere zaken liggen;

Communicatie rond de voordelen van ICT, waarbij deze ingezet kan worden om de milieubelasting van een organisatie te verlagen. Dit is de ‘IT-for-Green’ benadering, waarbij bijvoorbeeld video conferencing het aantal kilometers per auto en vliegtuig verlaagt en derhalve bij draagt aan een lagere CO2 uitstoot.

Men is ook van plan om tenminste 2 nieuwe eenheden te introduceren; Carbon Usage Effectiveness (CUE) en de Water Usage Effectiveness (WUE), zoals ook aangekondigd in recent persbericht:

The new metrics, called Carbon Usage Effectiveness (CUE) and the upcoming Water Usage Effectiveness (WUE), are joining The Green Grid’s widely-used Power Usage Effectiveness (PUE) metric. All are designed to help IT, facilities, and sustainability organizations across the globe optimize their data centers.

Hierbij is het goed om te zien dat men water verbruik als een belangrijke factor gaat zien rond duurzame datacentra. Het nadeel is wel dat er weer mee afkortingen en maateenheden worden geïntroduceerd.

Tijdens de bijeenkomst werd er echter ook nog een ander balletje opgegooid: Het mag duidelijk zijn dat duurzaamheid verder gaat dan de energie efficiëntie waar Green Grid zich tot nu toe op heeft gericht. Uiteindelijk is de totale duurzaamheid, maar ook CO2 uitstoot, iets van de gehele keten van de IT omgeving.

Om de efficiëntie daar van beter in beeld te brengen, kwam men met het idee voor een Data Center Maturity Model. Dit model werd bedacht door Harkeeret (Harqs) Singh, die in het bestuur van de Green Grid zit. Dit idee lijkt nu geadopteerd te worden door Green Grid.

Maturity_Model_05082010

Het model kent op dit moment 5 niveaus van volwassenheid en diverse categorieën die getoetst kunnen worden. In de komende tijd word het model verder door ontwikkeld op basis van feedback van de Green Grid leden.

— update 9 dec 2010 —
De presentaties van de bijeenkomst zijn beschikbaar:

The Green Grid Overview
EMEA Activities
Interxion End User Presentation
Microsoft End User Presentation
Harmonizing Global Metrics for Data Centre Energy Efficiency
Data Centre Maturity Model

Share

Chill Off 2 updates & video’s

In aanloop naar het bekend maken van de resultaten van de DatacenterPulse Chill-off 2, worden er dagelijks video’s gepubliceerd over de achtergrond en het test proces.

Koeloplossingen voor datacentra kennen vele uitvoeringsvormen. Lucht- of waterkoeling, afsluiting van warme of koude gangen, vrije koeling, koelmiddel of water zijn enkele van de mogelijkheden die een datacentereigenaar voorliggen bij bouw of verbouwing. De leveranciers van deze koelsystemen proberen potentiële kopers te verleiden met goed onderbouwde marketingdocumenten en cijfers. Maar hoe efficiënt is een aangeboden systeem nu echt? Welke onafhankelijke handvatten zijn er om een keuze makkelijker te maken? Datacenter Pulse (DCP) en de Silicon Valley Leadership Group (SVLG) proberen hier antwoord op te geven met de Chill Off-test.

Tijdens de aankomende SVLG Summit op 14 oktober 2010 in San Jose (CA, USA) zullen de resultaten worden gepresenteerd. Tijdens dit evenement worden ook de resultaten van andere R&D onderzoeken op datacenter gebied gepubliceerd door diverse commerciële organisaties (Yahoo!, Microsoft, Google) en universiteiten.

Het totale programma van de SVLG bijeenkomst is te vinden op: http://dcee.svlg.org/media/DCES10Agenda.pdf

Een overzicht van alle Chill-Off gerelateerde video’s zijn te vinden op: http://datacenterpulse.org/TheChillOff en op het Youtube kanaal van DatacenterPulse: http://www.youtube.com/user/datacenterpulse

Share

Nu echt modulair…

Een datacenter bouwen als Lego blokjes… dat lijkt de utopie in de modulaire datacenter wereld. In deze wereld is het datacenter gebouwd uit verschillende blokjes met de volgende karakteristieken: modularity

  • De blokjes zijn beschikbaar in verschillende soorten en maten
  • De blokjes zijn snel leverbaar, hier door is het datacenter snel uit te bereiden (+/- 6 weken, JIT levering)
  • Bij de keuze van het blokje, kan men kiezen uit TIER 1 t/m 4 voor beschikbaarheid. Hier door kan men beschikbaarheidsniveaus mixen.
  • Bij de keuze van het blokje, kan men kiezen uit diverse PUE niveaus.
  • Bij de keuze van het blokje, kan men kiezen uit diverse warmte belastingen per rack (kW/rack).
  • Bij de keuze van het blokje, kan men keizen uit diverse koeloplossingen (lucht (van buiten), water)
  • Bij de keuze van het blokje, kan men kiezen uit huur, lease of koop van het blokje.

Hier mee kan men dus op het juiste moment, het meest geschikte blokje inzetten tegen de juiste financiële voorwaarde. Deze modulariteit is niet automatisch een container datacenter. Diverse ‘niet-container-leveranciers’ leveren ook een modulair gebouwde oplossing.

Deze utopie is al langer de wens van menig datacenter eigenaar. Uiteraard proberen diverse leveranciers in te spelen op deze wens. Modulariteit is hier mee tot een marketing term verworden, die te pas en te onpas vermeld word bij diverse datacenter oplossingen.

Zoals Lex Coors (Interxion), terecht, zich beklaagd in DatacenterWorks:

Tegenwoordig lijkt het wel alsof alle datacenters modulair worden gebouwd. Helaas verstaat niet iedereen hetzelfde onder modulair bouwen, zo stelt Lex Coors, vicepresident datacenter technologie en engineering group van Interxion. “Er wordt veel gesproken over modulair bouwen maar uiteindelijk zie ik alleen de fasering terug en niet de modulaire benadering van de infrastructuur.”

Datacenter Pulse toetst regelmatig binnen de 1500+ leden wat hun top 10 grootste uitdagingen zijn op datacenter gebied. Op nummer 9 vinden we daar ook modulariteit:

More Products with Modularity

Goal: Enable pro-active, simple expansion or contraction of datacenter capacity without risk or reduction of design availabilities.

  • Update: Not seeing any significant increase in modular product offerings or end user implementations
  • Both vendors and end users need to elevate the discussions to implement current modular solutions to enable future modular products.

De frustratie van Lex word dus gedeeld door andere datacenter eigenaren. Datacenter Pulse komt nu te hulp met de Modulair RFP.

Continue with reading

Share

Chill Off 3 aan de horizon

Het heeft even geduurd voordat DatacenterPulse (DCP) met een update rond de Chill Off testen konden komen. Dit heeft te maken met wat tegenslag tijdens het testen, maar vooral met de ontzettende hoeveelheid aan onderzoeks data, die het opgeleverd heeft. Deze moet, uiteraard, nauwkeurig onderzocht en getoetst worden voordat men met resultaten komt.

Op dit moment worden de resultaten van de Chill Off 2 aan diverse externe specialisten voorgelegd; technische DCP leden die hun sporen verdient hebben in de datacenter wereld en in hun huidige functie verantwoordelijk zijn voor de grootste datacentra op de wereld.

Tijdens het SVLG Data Center Energy Efficiency Summit in oktober van dit jaar zullen de resultaten gepresenteerd worden.

De DCP Board is zich vast aan het voorbereiden op het vervolg: de Chill Off 3.

Tot nu toe hebben we ons gefocust op de efficiëntie van koelsystemen. De datacenter koelsystemen zijn er om de IT systemen in het datacenter te kunnen laten functioneren. De vraag is echter: wat kunnen de IT systemen eigenlijk hebben en wat kunnen we daar nog aan verbeteren.

Denk hierbij aan de Datacenter Tent test van Microsoft;

Inside the tent, we had five HP DL585s running Sandra from November 2007 to June 2008 and we had ZERO failures or 100% uptime.

In the meantime, there have been a few anecdotal incidents:

  • Water dripped from the tent onto the rack. The server continued to run without incident.
  • A windstorm blew a section of the fence onto the rack. Again, the servers continued to run.
  • An itinerant leaf was sucked onto the server fascia. The server still ran without incident (see picture).

Maar ook aan het recent oprekken van de temperatuur in het datacentrum door ASHRAE;

Expansion of the recommended data center temperature range, which should be taken at the server inlets. They should now be 18 degrees Celsius to 27 degrees (64.4 degrees Fahrenheit to 80.6 degrees), expanded from 20 degrees to 25 degrees (68 degrees Fahrenheit to 77 degrees).

De IT systemen blijken dus best wel wat te kunnen hebben… tijd dus om ze aan de tand te voelen.

Voor de Chill Off 3 zullen server leveranciers gevraagd worden om hun beste systeem te leveren met de volgende parameters:

– DCP stelt de inlet temperatuur vast (verwacht voor lucht rond de 40C)

– DCP levert benchmark software (o.a. eBay query’s en mogelijk SPECxxx)

– DCP test met luchtkoeling en waterkoeling (ook water direct op de chip) in een datacenter omgeving.

Resultaten zullen getoetst worden op basis van het aantal Query’s per Watt dat de machine kan verwerken bij de door ons aangegeven omgevingscondities. De server leveranciers worden hiermee gedwongen om te kijken hoe ver ze kunnen gaan met hun systemen.

Tot nu toe heeft o.a. Intel al toegestemd met medewerking voor deze testen.

Er moeten nog een hoop details uitgewerkt worden voordat we kunnen starten met deze testen, maar deze tweaker/overklokker mentaliteit zie ik natuurlijk helemaal zitten 🙂

Share

Bijna.. maar niet helemaal… ASHRAE 90.1

Recent heeft ASHRAE een update uitgebracht van hun 90.1 Standaard. Deze standaard behandeld de energie efficiëntie voor (kantoor) gebouwen in de USA en is nu bijgewerkt voor datacentra. Net als in Nederland, krijg een norm of standaard pas waarde zodra er een referentie met een stuk wetgeving ontstaat. Diverse staten in de USA kennen wetgeving met een referentie naar de ASHRAE 90.1 Standard. Zo zijn er bouwwetgevingen die verplichten dat men voldoet aan de 90.1 bij nieuwbouw in diverse staten.

Het deel rond datacentra doet nogal wat stof opwaaien;

the standard dictates which types of cooling methods must be used. For example, the standard requires data centers to use economizers — systems that use ambient air for cooling.

Het schrijft dus duidelijk voor welke technologie er gebruikt moet worden.

Het mag ook duidelijk zijn dat het voorschrijven van een bepaalde technologie in plaats van het beschrijven van een te behalen KPI waarde. (bijvoorbeeld PUE/EUE) ontwikkeling en innovatie in de weg kan staan. Het vastleggen van een technologie (zoals economizers) zorgt er voor dat andere technologieën buiten gesloten worden.

Diverse US datacenter eigenaren reageren hier gezamenlijk op:

In many cases, economizers are a great way to cool a data center (in fact, many of our companies’ data centers use them extensively), but simply requiring their use doesn’t guarantee an efficient system, and they may not be the best choice. Future cooling methods may achieve the same or better results without the use of economizers altogether. An efficiency standard should not prohibit such innovation.

Ondertekenaars van dit antwoord op de ASHRAE 90.1 update zijn geen kleine jongens:

  • Chris Crosby, Senior Vice President, Digital Realty Trust
  • Hossein Fateh, President and Chief Executive Officer, Dupont Fabros Technology
  • James Hamilton, Vice President and Distinguished Engineer, Amazon
  • Urs Hoelzle, Senior Vice President, Operations and Google Fellow, Google
  • Mike Manos, Vice President, Service Operations, Nokia
  • Kevin Timmons, General Manager, Datacenter Services, Microsoft

Dit zijn organisaties die de afgelopen jaren gedurfde experimenten hebben uitgevoerd om hun datacenter energie efficiënter te maken en hebben daar mee een forse invloed gehad op de datacenter markt.

Deze zelfde invloed word door sommige ook toegedicht aan leden van ASHRAE bij het opstellen van de 90.1

one assumption is this group who are active in ASHRAE brought up the energy efficiency issue early on, and ASHRAE stakeholders, most likely vendors who make economizers saw an opportunity to make specific equipment a requirement of energy efficiency data centers.  I could be wrong, but it would explain why an organization who sets standards would choose to specify equipment instead of performance.

Iets wat goed mogelijk is, aangezien standaarden commissies vaak gevuld zijn met leveranciers en consultants en vaak maar een handje vol eind gebruikers. Dit is o.a. de reden voor de overeenkomst tussen GreenGrid en DatacenterPulse,

Het stellen van ambitieuze normen word aangemoedigd door de grote datacenter eigenaren. Het stellen van een ambitieuze norm zorgt voor extra innovatie, omdat men gedwongen word om de norm te halen;

As leaders in the data center industry, we are committed to aggressive energy efficiency improvements, but we need standards that let us continue to innovate while meeting (and, hopefully, exceeding) a baseline efficiency requirement set by the ASHRAE standard.

Meer:

Share