JanWiersma.com

DatacenterWorld dag 3

Keynote van Microsoft

Ging over het gebruik van datacenters bij Microsoft voor o.a. MSN Live.

Ze hebben een methode ontwikkeld voor site-selectie. Het neemt power beschikbaarheid t/m de lokale cultuur van werknemers mee. Deze gaan ze openbaar maken.

Daarnaast gebruiken, bepalen en bereken ze de PUE van elk datacenter. Er bestaat een artikel van de GreenGrid over PUE en PUE v.s. DCIE. Deze is de moeite waard om te lezen.

Ze hebben zelf een tool gebouwd die alle data van meer als 1 milj data punten verzameld in het DC. Hier mee kunnen ze overzichten maken zoals Nlyte maar dan realtime. Het ziet er beter uit dan Netbotz. Er is geen verwachting dat deze tool verkocht gaat worden. (Microsoft’s Scry)

Er is een DC Best Practice van Microsoft. Deze is te download van hun website.

In Chicago (en als ik het goed begrijp ook Dublin) is men een DC aan het bouwen met een DC- container concept. Dit lijkt op Sun Blackbox.

Keynote van HDS.

Focus van deze sessie was ‘groene’ data opslag. Vrij algemeen verhaal waar HDS gebruik maakt van ISO 40001. Opslag groeit nog steeds wereldwijd.

Ze denken ‘groener’ en beter te kunnen werken door nieuwe opslag technieken;

– Thin provisioning

– De-duplicatie (zorgen dat een bepaalde file maar 1x opgeslagen behoeft te worden ondanks dat ze op 2 homedrives staan.

– Power up en down van drives als ze niet gebruikt worden.

Opvallend was wel dat ze een HDS opslag unit lieten zien en vertelde dat bij een EVA er fan’s op elke disk-shelf zitten en dat ze bij de HDS dat oplossen met een ‘schoorsteen’ in het midden van de HDS. Hier zit een fan boven en onder in. (De vraag is wel; hoe ga je dat koelen als je geen verhoogde vloer hebt. (cooling buttom-top ipv front-back))

Sessie: gebruik van RFID in het DC (Connectivity Technologies)

Ze maken racks (zoals Minkels), modulaire opzet

Levert kabels en de focus van de presentatie (eerste 30min) was alleen maar kabels. Net als alle grote jongens (Siemon, Systimax etc..) Veel van het zelfde dus…

Ze leveren een software product voor kabel management die Obtain 24/7 heet.

Het lijkt een beetje een mix tussen PatchManager en Nlyte.

Genesys Asset & Connect;

Alle assets in je DC geef je een RFID tag. Deze kan vervolgens gevolgd worden.

Het pakket werkt samen met Obtain 24/7.

Er worden diverse losse scanners geplaatst.

Ze leveren ook een losse scanner. Het product is nog niet te vinden op hun website en lijkt nogal ‘beta’.

De Connect versie is een RFID versie van de oplossing die Siemon etc.. ook leveren voor active patch management. Op dit manier heb je een totaal overzicht van de patching.

En dan is het tijd voor de lunch… met 1500 man….

DSC01629 

Na de lunch van gaat de beurs open:

DSC01634

Op de beurs zijn zo’n 100 verschillende bedrijven te vinden.  Veel bekende zoals APC, Siemon, GDCM , etc… Ook veel bekende gezichten.
Iets waar veel over gesproken word op de beurs is het beperkte aantal mensen die kunnen werken in de datacenter wereld en de juiste kennis hebben (wat is een airco en wat is een blade en hoe werken ze….)
Voor een overzicht en video’s: http://www.datacenterknowledge.com/

Share

DatacenterWorld dag 2

Tutorial1; What every DC manager wants to know about power, cooling, distribution, batteries en more.

Deze sessie duurde 5 uur (207 slides!) en werd geleid door Emerson.

Het eerste deel ging over UPS technologie. Hoe zet je een ATS (Active transfer switch) in en wanneer. Daarnaast was er een uitgebreide informatie vloed over type accu’s, chemische reacties en onderhoud van accu’s (1 uur lang…). Welk merk of type dan ook: er zit chemische stof in een accu en dat is gevaarlijk. Daarnaast kan er nogal wat mis gaan in de diverse chemische reacties (soms door productie fout) en dit alles brengt je UPS in gevaar.

Efficiënter werken in het DC (groener ??) en de winst die het oplevert voor stroom afname:

·         Power distributie. Blijkt dat 240v veel efficiënter is dan 208v die in US gebruikelijk is. Men wil een push naar 240v in US.

·         3 fase is een betere optie dan 1 fase wegens de conversie. Winst ligt op 2%.

·         Server power management wordt aangeraden. Winst ligt op 11% van het totaal verbruik.

·         Inzet van energy zuinige CPU’s (die iets duurder zijn) word aangeraden, winst 10%

·         Blade server inzet levert 1% winst

·         Virtualisatie levert 14% winst

Uitgebreid over ASHRAE en TC9.9 incl de boeken en de inzet daarvan met koeling.

Inzet van vloeistof koeling in het datacenter. Volgens Emerson de toekomst. 6x effectiever dan lucht. Daarnaast is er nog een andere op water gebaseerde stof (??) die nog 3x effectiever is dan water.

DSC01626

Share

DatacenterWorld dag 1

Datacentertours.

Gedurende 3 uur werden er 2 ‘virtuele’ datacenter tours gegeven van 2 bestaande datacenters.

Als eerste was het bedrijf LL Bean aan de beurt. Zij zijn een (online) winkel van jacht spullen

Ze hadden 2 DC’s in oude staat. Lekkend dag, geen power backups en geen blades.

Het bedrijf hanteert een ‘groen’ imago.

Daarom bouwd het alle winkels en kantoren volgens de LEED methode. Dit is een US punten systeem waar mee men een LEED ceritificaat kan behalen. Een LEED-gebouw is schoner en zou een betere werk omgevingen moeten geven voor de werknemers. Daar naast geeft LEED een betere verkoop waarde.

LL Bean zit nog in design fase in de nieuwe omgeving. Ze kiezen 2 N voor power en  N+1 voor cooling De toegang tot het gebouw is opgebouwd in 3 niveau’s. Ze kiezen voor een non-blade omgeving met een max van 3 tot 4 KW per rack.

Het gebouw heeft een speciale dak constructie wegens flinke sneeuw val elk jaar en het smelt water wat daar bij komt kijken.

Bij de bouw heeft men goed gekeken naar de gebouw indeling en de verdeling van ruimtes: Diverse leveranciers en onderhoud partyen hebben een ‘eigen’ ruimte voor hun spullen.

Al met al is er veel moeite gedaan om zo weinig mogelijk mensen op de DC vloer zelf te hebben.

Alle basis infra (power, cooling, ups, genset, EF (dat is de BISCI /RCDD naam voor toegangs ruimte voor telco en internet verbindingen)) zit op de begaande grond.  Het DC zelf zit op de 2e verdieping even als de commando ruimte.

De datacenter ruimte is een ‘ruimte in de ruimte’ (zie plaatjes die later volgen). Hier door ontstaat een ‘onderhouds gang’ rondom het hele rekencentrum. Vervolgens heeft men deze gang ook op de verhoogde vloer geplaatst en daar de airco’s op.

Deze bevinden zich dus buiten het DC en onderhoud kan plaats vinden zonder toegang tot het DC.

Uit eindelijk is de gehele 2e verdieping op verhoogde vloer geplaatst.

De DC ruimte heeft diverse ramen naar de onderhoud gang. Dat is handig voor de beveiliging: zij kunnen een ronde doen zonder op de DC vloer te komen.

Electra via 2 paden  (A en B)

Blus systeem is sprinkler en gas. Dit komt omdat veel US overheden altijd een sprinkler systeem eisen.

Leidingen voor cooling, lopen over/onder de onderhouds gang en zijn onderbroken met afsluiters voor onderhoud. Glycol als koel middel.

Al met al een aardige sessie maar helaas is LEED niet van toepassing op Nederland.

 

2e sessie ging over het DC voor het Network Access Point (NAP) in Miami voor internet verbindingen.

Zij zijn het toegangspunt voor (90% van )  alle zee verbindingen naar Zuid-Amerika.

Het DC daar:

-          Heeft 6 verdiepingen

-          Heeft meer als 2000 m2 per verdieping

-          Heeft meer als 100MW aan voeding beschikbaar

-          Heeft satelliet verbindingen

-          Is geschikt voor een categorie 5 tornado; tijdens een tornado kan men het gebouw geheel afsluiten van de buiten wereld en kunnen mensen en systemen 2 weken lang op zich zelf draaien.

Verder is het een normaal colo/POP datacenter zoals er ook diverse in Amsterdam zijn (Telecity etc..)

DSC01624

Share

Aankomst in Vegas

Na een reis van 9uur+3uur wachten+5uur+nog een hele boel wachten op baggage en security, ben ik eindelijk in Las Vegas aangeland.

Dag 0 is besteed aan registratie en mijn spullen ophalen, sprekers bijeenkomst en een check van de ruimte waar ik mijn sessie mag verzorgen. Daarnaast de tijd om een beetje bij te komen van de jetlag.

Programma voor de komende dagen:

Dag1: virtuele DC tour

Dag2: Tutorial

Dag3: sessies en beurs

Dag4: sessies en beurs

Dag5: forum

En dan weer terug naar huis…

DSC01613

Share

Cebit 2008

Cebit 2008 bezocht… en veel van het zelfde als in 2007; de zelfde aanwezigen (APC, Minkels, Rittal, Emerson , IBM, SUN) en de zelfde afwezigen (HP, en de meeste ‘kabelboeren’)

Microsoft gaf een aardige keynote met een mooie ‘Best Practices’ guide:

http://download.microsoft.com/download/a/7/b/a7b72ab1-ca17-4589-923a-83b0ff57be6d/Energy-Efficiency-Best-Practices-in-Microsoft-Data-Center-Operations-CeBIT.doc

SUN had hun Blackbox weer mee genomen. Aardig was dat men de Blackbox op zonnecellen had aangesloten;

http://blogs.sun.com/blackbox/entry/sun_as_in_solar_modular

Rittal had een grote stand met een volledig datacenter;

http://www.computable.nl/artikel/ict_topics/virtualisatie/2373751/2333390/cebit-2008-rittal-geeft-les-in-efficiency.html

Meer Cebit 2008 nieuws op Tweakers.net: http://tweakers.net/reviews/839/cebit-2008-storage-en-servers.html

Share