JanWiersma.com

Neelie Kroes & Efficiënte datacentra…

Afgelopen week publiceerde Neelie Kroes (Vice-President European Commission, Digitale Agenda) een blog rond de energie en CO2 footprint van de ICT sector. Hier in haalde ze uiteraard ook de datacentra aan;

Most evidence points to the manufacturing phase of ICT as the largest environmental footprint of the sector. But there are also significant energy needs in data centres. While definite numbers are hard to calculate, the most accurate information suggests that, by 2020, data centres in Western Europe could consume around 100 billion kilowatt hours each year – that’s around the same as the current total electricity consumption of the Netherlands!

De volgende stap werd ook uitstekend verwoord;

Addressing this huge rise in energy consumption first requires transparency from the sector. We need a consistent way to find out where the emissions in the sector are really coming from, and to measure the environmental footprint across the sector.

Dit komt neer op duidelijke afspraken over de manier van meten en communiceren daar over. In de basis roept ze op tot transparantie, samenwerking en de juiste metrieken. In december 2011 schreef ze ook al een keer over standaarden en metrieken in Green Standards – measuring the environmental impact of ICT. Het is belangrijk om gezamenlijke en eenduidige metrieken af te spreken en deze bij voorkeur op wereldwijd niveau te handhaven. Zeker voor internationale bedrijven word het bijna onmogelijk om in elk land weer een aparte versie van de PUE te handhaven.

Op wereldwijd niveau is het daarom goed om te zien dat er afspraken gemaakt word over PUE en deze ook meegenomen word in de ISO normeringen die gevormd worden.

Transparantie helpt om elkaar en daarmee de sector sterker te maken. Denk aan de OpenCompute gedachte van Facebook bijvoorbeeld. Ook DatacenterPulse probeert hier bij zijn steentje bij te dragen met bijvoorbeeld de Open RFP, waarbij de opgedane kennis gedeeld word met andere:

[youtube=http://www.youtube.com/watch?v=-jE_SPX7p0Y&w=448&h=252&hd=1]

 

Aangezien dit alles een focus is voor de EU en haar digitale agenda, moeten we als IT sector zorgen dat dit niet van tafel valt. Geen inzet betekend uiteindelijk altijd regulering van de overheid en dat kunnen we maar beter voor zijn. Dus actie:

Quite aside from the benefits of keeping energy costs down, we must make sure that the smart economy of the future is also sustainable. Information technology is moving to the centre stage of our lives. It’s time it moved to the centre stage of climate action too.

Share

BREEAM voor datacentra in NL

Ongeveer 2 jaar nadat ik vroeg wie de handschoen ging oppakken voor BREEAM-NL Datacentra is deze er nu.33 breeamnl

De handschoen werd uiteindelijk opgepakt door Ziggo en EvoSwitch;

DGBC heeft vandaag een aparte BREEAM-NL richtlijn voor datacenters gelanceerd. “Vanwege de specifieke functie en energievraag is het namelijk niet mogelijk om dit type bouwwerken met de huidige BREEAM-NL Nieuwbouw richtlijn te beoordelen”, legt DGBC-projectmanager Maarten Dansen uit. De eerste projecten zijn reeds bezig met certificeren en er staan steeds meer partijen in de rij om dit voorbeeld te volgen. Tot de eersten behoren EvoSwitch Datacenter en netbeheerder Ziggo.

“Zowel vanuit de markt als de overheid bestond al langer de behoefte aan een duurzaamheids- keurmerk voor datacenters. Daarom is een functie specifieke beoordelingsrichtlijn (BRL) ontwikkeld. We hebben met ondersteuning van Agentschap NL en samen met partijen als Ziggo en EvoSwitch de BREEAM-NL Datacenters ontwikkeld.

Het is goed om te zien dat er steeds meer aspecten van datacenter bouw en beheer bekeken worden vanuit een duurzaamheidsblik.

De ontwikkelde template is in korte tijd tot stand gekomen met medewerking van diverse industrie organisaties. Theoretisch is hij uitstekend bruikbaar en de eerste praktijk casussen moeten aantonen waar mogelijke gaten zitten of verbeteringen nodig zijn.

Credits voor mijn datacenter collega van Ziggo – Michel Bosman (die mooie dingen aan het doen zijn op datacenter gebied) en credits voor de projectleider Frank Zegers. We hebben een mooie eerste stap neergezet voor duurzame datacenter bouw.

Kritiek

Tijdens de ontwikkeling werd door de DGBC richting leden van ICT~Office aangekondigd dat deze BREEAM template in ontwikkeling was. De meest gehoorde reactie was "niet weer een certificaat er bij!"

Nu is het aantal certificaten op duurzaamheid in datacentra beperkt. Men kan kijken in de richting van ISO (zoals de 14001), maar deze zijn vooral gericht op exploitatie en niet zo zeer bouw. Daarnaast zou BREEAM niet nieuw moeten zijn, zeker niet voor kantoor gebouw eigenaren. Ongeveer 20% van alle kantoor gebouwen word op dit moment neer gezet met een BREEAM certificaat.

Daarnaast geeft BREEAM, in tegenstelling tot LEED, mogelijkheden tot subsidie vanuit de MIA. Dit betekend dat het financieel interessant kan zijn om de certificering te doorlopen. Ook extra kosten rond duurzaamheid kunnen hier mee (deels) gedekt worden. Vol op kansen dus…

Zoals de Datacenter Pulse Stack ook aangeeft, bestaat het gehele datacenter uit diverse bouwblokken. Deze kennen allemaal hun eigen karakteristieken en metrieke voor duurzaamheid. Ook bouw en exploitatie zijn verschillende doorsnede hier in. Uit eindelijk ontkomen we dus niet aan een verzameling van certificaten (ISO, BREEAM, LEED, CEEDA,..) en metrieke (PUE, CUE, WUE,..) voor het totale datacenter.

Dit holistische idee is ook door de Green Grid opgepakt: http://jwiersma.wordpress.com/2011/03/18/the-green-grid-verruimt-scope/

Presentatie van BREEAM-NL & datacentra: http://www.ictgaatvoorgroen.nl/pg/file/read/6121/presentatie-dgbc-breeam-datacenters

Share

SCADA netwerken & beveiliging… vervolg

De laatste weken is er aardig wat rumoer rond SCADA netwerken en hun beveiliging;

Sporthal gehackt via wijd open SCADA-systeem;

Een openstaande log-in heeft internetgebruikers onbeperkte toegang gegeven tot het beheren van fysieke zaken als luchttoevoer, temperatuur en alarmen in een sporthal in Spijkenisse.

En;

Nederlandse hacker onthult open SCADA-systemen;

Een Nederlandse hacker heeft een lijst van SCADA-systemen gepubliceerd die open en bloot aan het internet hangen.

En;

Zeeuwse gemalen te hacken via SCADA-lek;

De SCADA-systemen van rioleringspompen en gemalen van de gemeente Veere blijken slecht beveiligd. Hackers kunnen de systemen manipuleren vanuit huis. De gemeente is geschrokken.

En zelfs op Nu.nl;

D66 en VVD willen opheldering over hackers;

AMSTERDAM – D66 en VVD willen dat minister Ivo Opstelten (Veiligheid) opheldering geeft over het feit dat het kinderlijk eenvoudig is sluizen, gemalen, rioleringspompen en bruggen via internet te bedienen.

En 1-Vandaag besteden er een uitzending aan;

Sluizen, gemalen en bruggen slecht beveiligd;

Het blijkt kinderlijk eenvoudig om sluizen, gemalen, rioleringspompen en zelfs bruggen in Nederland via internet op afstand te bedienen. In EenVandaag een reportage die bijvoorbeeld laat zien hoe slecht de rioleringspompen en gemalen van de gemeente Veere zijn beveiligd. Met een paar simpele handelingen zijn ze vanaf een thuiscomputer te bedienen.

Het eerder geschreven artikel door Jeroen en mij rond datacentra, SCADA en veiligheid, is inmiddels opgepikt door DatacenterWorks: http://datacenterworks.nl/uploads/DCW%209-2011.pdf . Ook het Vakblad informatiebeveiliging pikte het op voor de leden van de PvIB : http://www.pvib.nl/tijdschrift

Het Nationaal Cyber Security Centrum (NCSC) heeft inmiddels een factsheet online gezet met daarin de veiligheidrisisco’s die overheden lopen. “De praktijk wijst uit dat veel organisaties onwetend zijn over welke van hun systemen direct via internet bereikbaar zijn. Een deel van die onwetendheid komt omdat systemen zijn aangelegd en/of worden beheerd door derden, waarmee geen of onvoldoende afspraken zijn gemaakt over beveiligingseisen”, waarschuwt het NCSC.

 

 

Share

Datacenter strategie 101

Eerder gepubliceerd in vakbladen voor Facilitair beheer. Datacenter strategie basics:

 

Informatie Technologie (IT) verandert heel snel en daarmee verandert ook het koppelvlak tussen IT en facilitair: het datacenter. Door de snelle veranderingen in de markt is het de afgelopen jaren steeds belangrijker geworden om het datacenter (of rekencentrum) mee te kunnen laten bewegen met deze ontwikkelingen. De kijk op datacenters is daardoor veranderd: daar waar het vroeger vaste ruimtes waren die men voor 10 à 15 jaar met een grote kapitaalinvestering bouwde, is hiervoor tegenwoordig een gedegen strategie vereist om flexibel in alle marktontwikkelingen mee te kunnen gaan. Deze datacenterstrategie is inmiddels net zo belangrijk geworden als de IT-strategie die het moet faciliteren.

Een goede datacenterstrategie moet de specifieke eisen en wensen van de organisatie adresseren. Het dient een strategie te zijn waarbij rekening gehouden moet worden met de groeiende complexiteit en de tientallen keuzes die de organisatie gaandeweg verwacht tegen te komen. Strategische planning is daarbij geen poging om risico’s te elimineren of te voorspellen hoe het datacenter er uit zal zien over vijftien jaar. Wel is het een manier om te bepalen welke risico’s de organisatie bereid is te nemen en vast te stellen welke richting past bij de bedrijfsstrategie.

Aan de hand van de drie volgende speerpunten kan men een pragmatische datacenterstrategie opstellen voor iedere organisatie:

  • trends en technologieën beoordelen die passen bij de organisatie;
  • de juiste stakeholders betrekken;
  • een kostenmodel bepalen.

Continue with reading

Share

Datacenter relevante (energie) wetgeving – whitepaper

The green gridDe Green Grid heeft een nieuw whitepaper uitgebracht: White Paper #44 – Energy Policy Research and Implications For Data Centres In EMEA. Het document telt 216 pagina’s aan relevantie wetten, regelgeving en subsidie mogelijkheden op het gebied van energie verbruik en relevante gebieden. Diverse landen in de EMEA regio worden behandeld, waar onder Nederland, Duitsland, Frankrijk, UK, maar ook Zuid Afrika en Rusland. Het document is een product van de EMEA Technical Commissie van The Green Grid, onderleiding van Harkeeret Singh. CBRE was verantwoordelijk voor het uitvoeren van het onderzoek. Het document is beschikbaar voor Green Grid leden en komt op termijn beschikbaar voor niet-leden.

Als voorbeeld de inhoudsopgave voor het Nederlandse deel:

  • 8 Netherlands
  • 1. EU and International Policies
  • 1.1. European Performance of Buildings Directive & Energy Performance Certification
  • 1.2. The Energy Labelling Directive (92/75/EEC)
  • 1.3. EU Ecolabel/Flower
  • 1.4. European Commission Code of Conduct on Data Centre Energy Efficiency
  • 1.5. Eco-Design Directive for Energy-Using Products (2005/32/EC)
  • 1.6. Certain Fluorinated Greenhouse Gases (EC Regulation 842/2006)
  • 1.7. EU GHG Emission Trading Scheme (Directive 2003/87/EC)
  • 2. National Policy Context .
  • 2.1. Decree Energy Performance of Buildings (BEG)
  • 3. Regulatory Obligations
  • 3.1. Building Regulations: Bouwbesluit
  • 3.2. Planning: Spatial Planning Act
  • 3.3. Spatial Planning Act (Wet op de ruimtelijke ordaening)
  • 3.4. Environmental Management Act (2004)
  • 4. Financial Costs
  • 4.1. NOx emissions trading
  • 4.2. Carbon Taxes
  • 5. Financial Incentives
  • 5.1. Tax incentive: EIA (Energy Investment Allowance) .
  • 5.2. Financing Support and Interest-Free Loans
  • 5.3. Feed-in Tariffs (FITs)
  • 6. Voluntary Mechanisms
  • 6.1. BREEAM-NL
  • 6.2. Green Fan
  • 6.3. More with Less Programme
  • 6.4. InfoMil
  • 6.5. Energy Star

 

Share

The ‘green’ PUE monster…

<sorry Dutchies.. this one is in English… sort of..>green-monster

My fellow Datacenter Pulse (DCP) colleague Mark Thiele wrote a good article on the use of PUE in the datacenter industry. He basically argues that you should look at the TCO of the datacenter and have a holistic view (like we promote with the DCP stack)

He opens with the ‘my PUE is better than yours remark’ we see going around in the industry. This is mentioned before by the Green Grid; the misuse of PUE. (I have written several articles about this issue on my Dutch datacenter blog)

Well guess what… we kinda created this monster ourselves;

Commodity

Datacenter are going commodity. Differentiation is in efficiency; looking at all the signs in the datacenter industry: the datacenter is becoming a commodity. The general idea is that any successful product will end up a commodity. See Simon Wardley’s excellent presentations on this subject.

Example signs are:

(got lots more, but for an other blog and beyond the point now…)

Most of this leads to technology being available to everyone. You still need a big budget to start building a datacenter but cost is coming down thanks to advances in IT technology (like: do we still need to build TIER4?) and facility technology. Great example is the option to build modular and from an assembly line. This reduces datacenter production cost and you can spread CAPEX across time.

For any commodity product the competitive advantage diminishes, prices go down and if you’re in the market of selling the stuff: your differentiation is on price and efficiency.

So we push towards efficiency and lowering our operational cost, to be cheaper that the competition. It doesn’t matter what type of datacenter owner you are (enterprise, cloud, co-lo, whole sale..) the competitive advantage is in the operational cost. Everyone already has a SAS70, ISO27001, ISO9001, PCI, etc.. certificate. Everyone can get and build the technology and at some point it doesn’t pay off to worry about the small engineering details anymore; the cost are too high to get enough competitive advantage in return.

Marketing & Sales

If you’re in the datacenter co-lo or whole-sales business then your marketing and sales guys are trying to look for the (next) USP.

With the datacenter efficiency on the rise, it’s nice to have a single figure to tell your customer you are more efficient that the competition (and able to offer lower prices with it..).

PUE presented a great opportunity to get a nice USP for our sales guys. And I can’t blame them: it’s hard to sell a (going) commodity product and it’s something our customers are asking for.

Sustainable & marketing

The whole ‘green wash/hype’ (before the economic crisis) added to the misuse of PUE from a sales and marketing perspective. Everyone was, and still is, building the next greenest datacenter on this planet. It would be nice to have a single figure to promote this ‘green stuff’ and tell the world about this new engineering marvel… and PUE is happily adopted for this.

On the enterprise/cloud datacenter owners side it’s not very different.. it’s just another angle. Especially the larger datacenter (cloud) owners are pushed from a marketing perspective thanks to organizations like Greenpeace. They demand full disclosure of datacenter energy use and sustainability on behalf of the world’s population.

PUE is a nice tool to get some of the pressure off and tell the world you have the greenest datacenter operation, like Facebook, Google, Microsoft and others are now doing. The problem with those numbers is they don’t say anything without the full context. And like Mark says in his article; it doesn’t say anything about the full datacenter stack.

Sustainable & Government

The really interesting thing I have been dealing with recently is government and PUE.

Many state and local government organizations are looking at datacenters from an energy use perspective. This focus is thanks to reports from research and governmental institutes (for example EPA) and organizations like Greenpeace.

Government can either use the ‘carrot (subsidies) or stick (penalties)’ approach but it always requires some kind of regulation and some form of measurement. They happily adapted PUE for this.

The main problem with this is that PUE is not ready to be audited. Sure general guidelines for PUE calculation are available, but it still doesn’t have all the full details and leaves opportunity to ‘game the system’. It also doesn’t address the full holistic datacenter approach and the fact that you cannot use PUE to compare different datacenters.

Datacenter customer

Some of the governmental organizations are also using PUE for their co-lo tenders. And they are not the only ones. More and more RFP’s on the datacenter market state a specific PUE number or target with additional credits for the lowest number.

I can’t blame the datacenter customer; the datacenter is a pretty complex facility box if you’re not educated in that industry. It would be nice to just throw some numbers at it like TIER1-4 and PUE1-2 and select the best solution provider on the market…

I can’t blame the datacenter owner for the answer with ‘the best possible number he can think of’… they just want the business…

Datacenter vendor

As usual I’m part of the problem also. When I go shopping for the next big thing in datacenter technology, PUE is always part of the conversation.

Datacenter equipment vendors (especially cooling and power) are happy to throw some numbers my way to convince me that their solution is the most efficient.

The PUE numbers are on the equipment spec sheets, on the vendor website and in the sales meeting… but at the end I always have to conclude that our little number dance really doesn’t tell me anything. Just like Mark mentions: I go back to TCO.

Our own monster

So… we created this monster as a datacenter industry. Owners and consumers. Government and industry groups. I can also assure you that this will continue and will also happen to some of the great other Green Grid initiatives like CUE, WUE and the Maturity Model. It’s just a way of trying to put a number on what can be a very complex stack of functions called ‘the datacenter’.

Only way to diminish the monster is to educate our industry colleagues and our customers. And stop throwing the numbers around…

For the record1: the use of PUE

Don’t get me wrong, I love PUE and have used it successfully many times to benchmark my own data centers and prove to senior management that we progressed in efficiency. It’s also the way the EU Datacenter Code of Conduct works: show progress every year by calculating the PUE for the same datacenter with the same calculation method. This way you will have apples – apples situation.

Its just that I don’t like the way PUE is used in the above examples…

For the record2: On datacenter and green

Full disclosure: Datacenters are not green and will never be green. They consume large amounts of energy and will consume more energy in the future. All thanks to Jevons Paradox and the fact that we start to consume more CPU/Storage if prices go down…. And yes, someone has to build datacenters for all the CPU’s and disk’s…

See GreenMonk – Simon Wardley on ‘Cloud & Green’

I do think that:

1. We should aim to build the most efficient datacenters on the planet. It should not only focus on energy consumption but on all resources used for build and operation.

2. We cannot keep up with the rising demand from an energy-grid perspective. We should start looking for alternative ways for datacenter builds and deployment.

Share

Energie verbruik Datacentra stabiliseert ??!?

Op 1 augustus j.l. kopte de New York Times:

Data Centers’ Power Use Less Than Was Expected

Data centers’ unquenchable thirst for electricity has been slaked by the global recession and by a combination of new power-saving technologies, according to an independent report on data center power use from 2005 to 2010.

Het artikel is gebaseerd op een onderzoek van Jonathan G. Koomey die voor Stanford University werkt en een bekende is in de datacenter wereld met eerdere onderzoeken.

Het onderzoek komt tot de conclusie dat de energie afname voor datacentra niet zo hard gegroeid is als eerder voorspeld werd in de rapporten van de EPA.

koomey-research

De reden voor de verminderde groei zou te vinden zijn in:

  • Economische crisis –> minder server verkoop en datacenter bouw;
  • Verminderde server aankoop door virtualisatie;
  • Inzet van energie efficiënte technologieën in IT systemen en datacentra.

Minder servers?

De eerste twee redenen zouden uit de server verkoop cijfers te halen moeten zijn en dat doet Koomey aan de hand van IDC cijfers van 2007 v.s. 2010. (pagina 20 rapport). Als we deze cijfers langs die van een andere markt analist liggen, Gartner, komen deze redelijk overeen. In september 2009 gaf Gartner aan dat de server verkoop zo’n 28% lager was dan die periode een jaar geleden (2008);

In the second quarter of 2009, worldwide server shipments dropped 28 per cent year-on-year, while revenue fell 29.4 percentage points year-on-year, according to Gartner, Inc.

“The server market remains constrained on a worldwide level,” said Jeffrey Hewitt, research vice president at Gartner. “Server sales have felt the impact of reduced budgets since the last half of 2008 and the second quarter of this year remained in the negative.”

In mei 2010 rapporteerde ze dat er een groei geboekt was van 23% ten opzichte van het voorgaande jaar (2009);

Worldwide server shipments grew 23 percent year over year in the first quarter of 2010, while revenue increased 6 percent, according to Gartner, Inc.
"We’ve seen a return to growth on a worldwide level, but the market has not yet returned to the historical quarterly highs that were posted in 2008,

Maar de groei was nog niet op het niveau van 2008. In november 2010 werd nog steeds groei gemeten van zo’n 14%. IDC gaf recent aan dat de verkoop in de lift zit en behoorlijk zal stijgen. Dit zou te danken zijn uit de wereldwijde uitrol van cloud computing initiatieven;

Investments in private and public clouds will spur worldwide server sales over the next four years to the tune of $9.4bn (£5.8bn), according to IDC.

<IDC> estimates 1.2 million systems that underpin public cloud deployments will be shipped by 2015, a compound annual growth rate of 21 per cent and 570,000 servers to be sold for private cloud implementations, CAGR of over 22 per cent.

Bij al deze server markt groei cijfers moet echter wel opgemerkt worden dat ze wel relatief zijn en zeggen niets over het feit of het energie efficiënte modellen zijn en of deze in hoog efficiënte datacentra terecht komen. Daarnaast is de focus van de eerder genoemde energie groei in datacentra onderzoeken, die van de US situatie en moeten de server verkoop cijfers dus per geografische markt bekeken worden.

Het lijkt echter valide om te stellen dat de dalende server verkoop heeft bijgedragen aan de verminderde groei van energie afname van datacentra.

Energie afname per server.

Als we kijken naar energie afname in een datacenter dan zien we dat er een hele energie keten is waar verbruik en verlies in optreed. Deze is duidelijk te zien in de DatacenterPulse Stack  of het Cascade Effect van Emerson:

The_cascade_effect

Deze laatste geeft een aardig beeld waarbij elke watt die bespaard word bij de bron totaal 2,84 watt aan besparing levert. Dit is uiteraard afhankelijk van alle schakels die er tussen zitten en de efficiëntie daar van. Als we kijken naar de totale energie last van een datacenter is het dus zeker interessant om te kijken naar de ontwikkeling van server componenten in de afgelopen jaren.

Dus de HP power calculator gepakt en een theoretische berekening gemaakt:

Productie Jaar Type CPU’s RAM HD Afname
2003 DL360 2 (PII) 4 2x 18GB 176W
2004 DL360G3 2 8 2x 36GB 360W
2008 DL360G5 2 (Intel L5240) 8 (low power) 2x 36GB 238W
2011 DL360G7 2 (Intel L5630) 8 (low voltage) 2x 60GB SSD 160W

Los van het feit dat dit een theoretische benadering is en n
ogal hoog over, levert het een aardig aanknopingspunt: in de server ontwikkeling hebben we een grote sprong gezien in energie toename met de komst van snellere systemen. Echter zijn er in de afgelopen 2 a 3 jaar grote stappen gemaakt in het terug dringen van dat energie verbruik. In bovenstaande berekening zien we dat een snelle quadcore machine met solid-state disken minder energie verbruikt dan zijn broertje met een Pentium 3 CPU uit 2003.

Een collega zetten mij recent op dit spoor toen we keken naar het aantal ampère dat er per rack verbruikt word en de groei hier van; bij rackmount servers bleek dit redelijk te stabiliseren en op bepaalde vlakken zelfs te dalen.

We kunnen dus wel stellen dat de servers die vandaag de dag gekocht worden zuiniger zijn dan voorheen en zeker bijdragen aan de daling die gesignaleerd word in het rapport van Koomey. Zeker als we het cascade effect er nog eens overheen gooien. De combinatie van efficiëntere servers, die beter uitgenut worden door virtualisatie zal het verhaal alleen nog maar versterken.

De grote glazen bol

De vraag is nu echter waar gaat het de komende jaren heen en zet de daling zich voort of is het slechts uitstel van executie? Het antwoord hier op ligt op een aantal vlakken:

1. Besparingen.

De ontwikkeling van energie zuinige servers zet zich voort. Neem als voorbeeld de inzet van de ARM en Atom CPU voor servers. Mensen die recent een keynote van mij hebben gevolgd weten dat ik daar een fan van ben en deze ontwikkeling op de voet volg. Voorbeeld: Low-power server startup pitches Intel Atom for Hadoop en zoals Gigaom enige tijd geleden melde:

ARM-based servers will consume a fraction of the power and space demanded by today’s most efficient servers. Performance per “core” will be lower, but clusters of these efficient nodes will consume perhaps as little as 1/10th as much power to deliver comparable performance. Couple that with huge gains in performance density to realize massive savings potential in data center capital expenditures.

De ontwikkelingen op het efficiëntie gebied van datacentra gaat ook door. De grote datacentra ontwikkelen zich langzaam naar de PUE onder de 1.1. Daar zien we de ontwikkeling in technologie en de discussie over temperatuur in het datacenter die ik al eerder in een blog behandelde. Er blijft echter een groot markt aandeel van kleiner datacentra die zich nog nooit druk heeft gemaakt over PUE. Deze zitten o.a. in kantoorpanden met hun datacentra. Google is nu gestart met een stuk bewustwording voor dit deel van de markt met de publicatie van hun Best practices

2. Groei.

Zoals ik beschreef in de Jevons Paradox blog zullen we de komende jaren behoorlijke groei zien in de cloud computing markt. Dit levert verhoogde afname van servers zoals IDC dus al schetste. Ook zal dit leiden tot meer en grotere datacentra. (Deze servers en datacentra zijn dan hopelijk wel zo efficiënt mogelijk..) Dit werd ook geschetst door Christian Belady (Microsoft) bij zijn toekomst schets van datacenter bouw markt.

Met de mate van groei in afname van cloud computing producten die nu al te zien is in de markt denk ik echter dat we Gartner (2007!) gaan volgen:

image

Ze hadden dan wel niet de economische crisis zien aankomen toen ze deze in 2007 opstelde, maar die scherpe daling mede dankzij nieuwe (efficiënte) technologieën is heden ten dagen wel te zien. De energie consumptie zal daarna weer toe nemen wegens de massale groei aan servers en datacentra vanuit Jevons paradox. Zoals Simon Wardley daarbij aangeeft:

By increasing efficiency and reducing cost for provision of infrastructure, a large number of activities which might have once not been economically feasible become economically feasible.

The effect of these forces is that whilst infrastructure provision may become more efficient, the overall demand for infrastructure will outstrip these gains precisely because infrastructure has become a more efficient and standardised component.

De ontwikkeling in energie efficiënte servers en datacentra zal de groei iets temperen maar de vraag is daarbij enkel: hoe hard gaat de totale groei en volgens welk (EPA) scenario ?

Meer: Blog J. Koomey

 

Continue with reading

Share

DCP start 2e open-RFP project

Zoals gisteren aangekondigd op Twitter en de DatacenterPulse website, is DatacenterPulse samen met eBay het 2e open RFP project gestart. Dit maal voor een datacenter ontwerp in Salt Lake City, Utah. Het project heeft de naam QuickSilver mee gekregen.

Bij het vorige open-RFP project Mercury werd de datacenter ontwerp markt uitgedaagd om een maximaal flexibel datacenter te ontwerpen voor eBay in Phoenix. Hierbij was ook de eis dat men het gehele jaar 100% free cooling toegepast kon worden. Daarnaast was de eis:

  • modulair TIER 1 t/m4 kunnen ondersteunen
  • modulair lucht koeling en water koeling kunnen ondersteunen
  • zowel normale racks als gehele datacenter containers kunnen ondersteunen
  • diverse rack vermogens kunnen ondersteunen

De winnende ontwerpen werden op 22 februari 2011 gepresenteerd aan de DatacenterPulse leden tijdens de Modularity Readout op de Google campus. Het project bereikte zijn doel: de markt uitdagen om met innovatieve ontwerpen te komen voor datacentra en deze kennis delen met andere datacenter eigenaren.

Project QuickSilver neemt de leerpunten uit het vorige open-RFP project mee voor de volgende uitdaging;

We are consutructing a new building on one of the three adjacent 15 acre phases of the Salt Lake City, Utah Data Center that we opened in 2010. You can see the phases from the arial photo below. The initial delivery of IT critial power will be 4MW, with scale to 30MW. The design must be completed in Q1 of 2012, with construction starting in Q2 and full commissioning complete by 12/21/2012.

Hierbij zijn de volgende eisen gesteld:

  • Server racks from 5-40kW
  • Server containers that can scale from 100kW and up.
  • All locations (racks & containers) must have air and hot-water cooling available
  • Expand power and cooling capacity in a modular basis
  • Ability to select or change Tier level from Tier 1 to concurrently maintainable Tier 2 or 3.
  • Free cooling year round in Utah
  • Rack or MEP UPS flexibility (choose)
  • 400V distribution to the server rack PDUs
  • Entire design must be highly cost effective.

De beste 5 ontwerpen worden ook weer gedeeld met datacenter eigenaren uit de 1500+ leden groep van DatacenterPulse.

[youtube=http://www.youtube.com/watch?v=LGSoBF_yZm4&w=448&h=252&hd=1]

 

De project pagina is hier: http://datacenterpulse.org/rfp/modular/quicksilver. De inschrijving is 19-8 geopend.

Share

Waarom de stap van Facebook interessant is…

De afgelopen week kondigde Facebook het Open Compute initiatief aan. Kort gezegd publiceerde ze al hun bouw tekeningen van hun datacenter en servers met de mededeling; hier is het, gebruik het, verbeter het…

In de dagen daar op kwam er een stort vloed aan blogs en twitter discussies los over het initiatief. Na een flinke discussie afgelopen weekend met DatacenterPulse leden en cloud guru’s; waarom dit initiatief relevant is voor jou (Enterprise) IT omgeving:

Facebook behoord tot mijn rijtje van bedrijven uit de Formule 1 der ICT; bedrijven die ver vooruit zijn in technologische ontwikkeling, vaak vanwege schaalgrote, en waar van op termijn interessante technologie ontstaat die bruikbaar is voor Enterprise IT en later MKB IT.

Deze bedrijven hebben in de afgelopen jaren diverse interessante ontwikkelingen naar buiten gebracht, die nu al een impact hebben op enterprise IT omgevingen. Een voorbeeld is de inzet van datacenter containers; Uiteraard is de inzet van een container vol met 1500 servers een maatje te groot voor de meeste organisaties. Echter het modulaire concept er achter heeft de manier van datacenter bouw veranderd. Zeker als je kijkt naar het huidige portfolio van veel datacenter aanbieders, zie je altijd wel ergens een ‘modulaire’ oplossing. Deze innovatie is dus opgepakt door de eindgebruikers en de markt, waarna er producten op door ontwikkeld zijn die toepasbaar zijn voor de ‘normale’ IT.

Een ander voorbeeld is de ontwikkeling van Hadoop voor de afhandeling van grote hoeveelheden data. Over dit ‘data olifantje’ schreef ik al eerder.

OpenCompute-Logo-Main

Facebook geeft nu een kijkje in de keuken van hun datacenter en servers. Google deed dit in het verleden ook al een beetje, maar nooit zo open als Facebook nu doet. In eerste instantie staat het volledig (bouwkundig) ontwerp van het Facebook datacenter op internet samen met de server ontwerpen.

De aankondiging van Facebook over hun Open Compute initiatief werd gematigd positief ontvangen; de vraag was vooral wat moet ik (als normale IT-er) er mee.

Laat ik duidelijk zijn; Het 1-op-1 kopiëren van de ontwerpen van Facebook zal een Enterprise IT omgeving niet helpen. Net zo min als het zal helpen om de Google of Amazon ontwerpen te kopiëren (als die publiek bezit zouden zijn). Hier voor zijn de omgevingen en doelen te verschillend.

Er is echter wel een hoop van te leren voor de enterprise IT-er. Door kritisch te kijken in de keuken van de Formule 1 kun je zien waarom het hun lukt om wel 10.000-en servers met enkele beheerders in de lucht te houden, deze snel uit te rollen en hogere beschikbaarheid te bieden tegen lagere kosten.

Daarnaast geeft het ons als eind gebruiker inzicht in de technologische mogelijkheden. Hiermee kunnen we de leveranciers onder druk zetten om ons betere producten te leveren. Dit past geheel in de visie die DatacenterPulse na streeft: “influence the datacenter industry through end users”

Twee andere Open* ontwikkelingen die de moeite waard zijn van het volgen op het IT vlak zijn:

www.openstack.org

OpenStack is a collection of open source technologies delivering a massively scalable cloud operating system. OpenStack is currently developing two interrelated projects: OpenStack Compute and OpenStack Object Storage. OpenStack Compute is software to provision and manage large groups of virtual private servers, and OpenStack Object Storage is software for creating redundant, scalable object storage using clusters of commodity servers to store terabytes or even petabytes of data.

www.openflow.org

OpenFlow enables networks to evolve, by giving a remote controller the power to modify the behavior of network devices, through a well-defined "forwarding instruction set". The growing OpenFlow ecosystem now includes routers, switches, virtual switches, and access points from a range of vendors.

Deze laatste heeft vooral mijn interesse omdat er wel netwerk innovatie is geweest op snelheid (10G, etc..) maar niet echt een open initiatief op het gehele eco-systeem. Hiermee lijkt het netwerk ook echt aansluiting te gaan vinden met de cloud ontwikkelingen op opslag en compute gebied.

Uiteindelijk zien we een heleboel interessante ontwikkelingen aan de horizon, die Enterprise IT gaan helpen. Zeker bij de bouw van private cloud en focus op ‘big data’.

Infrastructuur commodity ?

De Facebook openheid op dit vlak geeft ook nog een andere trend aan; het hebben van een datacenter en IT infrastructuur word steeds minder een strategisch voordeel. Feitelijk kan de Facebook concurrentie het model compleet kopiëren, maar Facebook geeft eigenlijk aan dat dit geen bedreiging zal zijn voor hun business. Ze richten zich op hun belangrijkste waarde; de data en hun eind gebruikers. Deze leveren wel het strategisch voordeel, zoals ook de Huffington Post concludeert:

"[The Open Compute Project] really is a big deal because it constitutes a general shift in terms of what how we look at technology as a competitive advantage," O’Grady said. "For Facebook, the evidence is piling up that they don’t consider technology to be a competitive advantage. They view their competitive advantage in the marketplace to be their users."

Die conclusie werd ook al getrokken rond infrastructuur software (zoals database) bij Facebook en enkele andere, rond de openheid van hun ontwikkelingen;

For Facebook, the value is not in the infrastructure – though Hip-Hop demonstrates the value of even marginal improvements in performance for high scale players – it is in the users and the data they generate. As Tim O’Reilly famously put it, “data is the Intel Inside.”
Read more: http://redmonk.com/sogrady/2011/03/11/how-important-is-software/#ixzz1JFQUwNwa

En dat alles zou wel eens de belangrijkste conclusie kunnen zijn van al deze publicaties en discussies; het gaat om de data… en de IT er om heen word een commodity. Met dank aan de Formule 1 van IT en cloud computing…

Meer van mijn cloud collega’s:

Share