JanWiersma.com

DatacenterWorld dag 2

Tutorial1; What every DC manager wants to know about power, cooling, distribution, batteries en more.

Deze sessie duurde 5 uur (207 slides!) en werd geleid door Emerson.

Het eerste deel ging over UPS technologie. Hoe zet je een ATS (Active transfer switch) in en wanneer. Daarnaast was er een uitgebreide informatie vloed over type accu’s, chemische reacties en onderhoud van accu’s (1 uur lang…). Welk merk of type dan ook: er zit chemische stof in een accu en dat is gevaarlijk. Daarnaast kan er nogal wat mis gaan in de diverse chemische reacties (soms door productie fout) en dit alles brengt je UPS in gevaar.

Efficiënter werken in het DC (groener ??) en de winst die het oplevert voor stroom afname:

·         Power distributie. Blijkt dat 240v veel efficiënter is dan 208v die in US gebruikelijk is. Men wil een push naar 240v in US.

·         3 fase is een betere optie dan 1 fase wegens de conversie. Winst ligt op 2%.

·         Server power management wordt aangeraden. Winst ligt op 11% van het totaal verbruik.

·         Inzet van energy zuinige CPU’s (die iets duurder zijn) word aangeraden, winst 10%

·         Blade server inzet levert 1% winst

·         Virtualisatie levert 14% winst

Uitgebreid over ASHRAE en TC9.9 incl de boeken en de inzet daarvan met koeling.

Inzet van vloeistof koeling in het datacenter. Volgens Emerson de toekomst. 6x effectiever dan lucht. Daarnaast is er nog een andere op water gebaseerde stof (??) die nog 3x effectiever is dan water.

DSC01626

DatacenterWorld dag 1

Datacentertours.

Gedurende 3 uur werden er 2 ‘virtuele’ datacenter tours gegeven van 2 bestaande datacenters.

Als eerste was het bedrijf LL Bean aan de beurt. Zij zijn een (online) winkel van jacht spullen

Ze hadden 2 DC’s in oude staat. Lekkend dag, geen power backups en geen blades.

Het bedrijf hanteert een ‘groen’ imago.

Daarom bouwd het alle winkels en kantoren volgens de LEED methode. Dit is een US punten systeem waar mee men een LEED ceritificaat kan behalen. Een LEED-gebouw is schoner en zou een betere werk omgevingen moeten geven voor de werknemers. Daar naast geeft LEED een betere verkoop waarde.

LL Bean zit nog in design fase in de nieuwe omgeving. Ze kiezen 2 N voor power en  N+1 voor cooling De toegang tot het gebouw is opgebouwd in 3 niveau’s. Ze kiezen voor een non-blade omgeving met een max van 3 tot 4 KW per rack.

Het gebouw heeft een speciale dak constructie wegens flinke sneeuw val elk jaar en het smelt water wat daar bij komt kijken.

Bij de bouw heeft men goed gekeken naar de gebouw indeling en de verdeling van ruimtes: Diverse leveranciers en onderhoud partyen hebben een ‘eigen’ ruimte voor hun spullen.

Al met al is er veel moeite gedaan om zo weinig mogelijk mensen op de DC vloer zelf te hebben.

Alle basis infra (power, cooling, ups, genset, EF (dat is de BISCI /RCDD naam voor toegangs ruimte voor telco en internet verbindingen)) zit op de begaande grond.  Het DC zelf zit op de 2e verdieping even als de commando ruimte.

De datacenter ruimte is een ‘ruimte in de ruimte’ (zie plaatjes die later volgen). Hier door ontstaat een ‘onderhouds gang’ rondom het hele rekencentrum. Vervolgens heeft men deze gang ook op de verhoogde vloer geplaatst en daar de airco’s op.

Deze bevinden zich dus buiten het DC en onderhoud kan plaats vinden zonder toegang tot het DC.

Uit eindelijk is de gehele 2e verdieping op verhoogde vloer geplaatst.

De DC ruimte heeft diverse ramen naar de onderhoud gang. Dat is handig voor de beveiliging: zij kunnen een ronde doen zonder op de DC vloer te komen.

Electra via 2 paden  (A en B)

Blus systeem is sprinkler en gas. Dit komt omdat veel US overheden altijd een sprinkler systeem eisen.

Leidingen voor cooling, lopen over/onder de onderhouds gang en zijn onderbroken met afsluiters voor onderhoud. Glycol als koel middel.

Al met al een aardige sessie maar helaas is LEED niet van toepassing op Nederland.

 

2e sessie ging over het DC voor het Network Access Point (NAP) in Miami voor internet verbindingen.

Zij zijn het toegangspunt voor (90% van )  alle zee verbindingen naar Zuid-Amerika.

Het DC daar:

-          Heeft 6 verdiepingen

-          Heeft meer als 2000 m2 per verdieping

-          Heeft meer als 100MW aan voeding beschikbaar

-          Heeft satelliet verbindingen

-          Is geschikt voor een categorie 5 tornado; tijdens een tornado kan men het gebouw geheel afsluiten van de buiten wereld en kunnen mensen en systemen 2 weken lang op zich zelf draaien.

Verder is het een normaal colo/POP datacenter zoals er ook diverse in Amsterdam zijn (Telecity etc..)

DSC01624

Aankomst in Vegas

Na een reis van 9uur+3uur wachten+5uur+nog een hele boel wachten op baggage en security, ben ik eindelijk in Las Vegas aangeland.

Dag 0 is besteed aan registratie en mijn spullen ophalen, sprekers bijeenkomst en een check van de ruimte waar ik mijn sessie mag verzorgen. Daarnaast de tijd om een beetje bij te komen van de jetlag.

Programma voor de komende dagen:

Dag1: virtuele DC tour

Dag2: Tutorial

Dag3: sessies en beurs

Dag4: sessies en beurs

Dag5: forum

En dan weer terug naar huis…

DSC01613

Cebit 2008

Cebit 2008 bezocht… en veel van het zelfde als in 2007; de zelfde aanwezigen (APC, Minkels, Rittal, Emerson , IBM, SUN) en de zelfde afwezigen (HP, en de meeste ‘kabelboeren’)

Microsoft gaf een aardige keynote met een mooie ‘Best Practices’ guide:

http://download.microsoft.com/download/a/7/b/a7b72ab1-ca17-4589-923a-83b0ff57be6d/Energy-Efficiency-Best-Practices-in-Microsoft-Data-Center-Operations-CeBIT.doc

SUN had hun Blackbox weer mee genomen. Aardig was dat men de Blackbox op zonnecellen had aangesloten;

http://blogs.sun.com/blackbox/entry/sun_as_in_solar_modular

Rittal had een grote stand met een volledig datacenter;

http://www.computable.nl/artikel/ict_topics/virtualisatie/2373751/2333390/cebit-2008-rittal-geeft-les-in-efficiency.html

Meer Cebit 2008 nieuws op Tweakers.net: http://tweakers.net/reviews/839/cebit-2008-storage-en-servers.html