Nové datacentrum TTC vzniklo přestavbou jedné z budov bývalých tiskáren. Původně tu bylo centrum PNS a na vozících sem přijížděly desítky tun novin, které se třídily a náklaďáky je rozvážely do celé republiky. Budova prošla rozsáhlou rekonstrukcí, po které zbyly jen podlahy vyhovující svou vysokou nosností.
Když přijíždíme do areálu, otevírá se nám veliká posuvná brána, za kterou nás už čeká Radek Majer, výkonný ředitel TTC TELEPORT, s.r.o. Tohle je druhá největší posuvná brána v Česku, má 18 metrů,
chlubí se hned na úvod. Měli jsme problém to sem dostat, nikdo u nás to neumí vyrobit. Montovali to někde v loděnicích ve Štětíně.
Přicházíme na velký dvůr před samotnou budovou, kde je vidět malé parkoviště pro zákazníky a vykládací plocha pro kamiony. Během naší návštěvy jsme tu pořídili desítky fotografií, můžete si je prohlédnout v naší galerii:
Původní nápad na přestavbu vznikl před šesti lety, kdy se nám areál na Tiskařské začal hodně rychle zaplňovat. Majitelé holdingu se proto rozhodli, že je potřeba koupit novou budovu, která má blízko k elektřině, optice a unese zatížení datového centra,
vysvětluje Majer. Firmě se budova líbila kvůli podlahám s velkou nosností a také kvůli dobrému stavu celé konstrukce.
Původní budova byla z velké části stržena, zůstala jen nosná konstrukce a už zmíněné podlahy. Celý plášť, který vidíme ze dvora, je tedy nový. Zdi vypadají jako ze sádrokartonu, ale máme bezpečnostní certifikaci BT3 a používáme desky firmy Knauf, které obsahují kevlarová vlákna. Krumpáčem vám bude trvat 35 minut, než se dostanete na druhou stranu,
vysvětluje Majer.
Ani sem na pozemek se jen tak někdo nedostane, hodně se tu dbá na bezpečnost. Vepředu máme 2,2 metrů vysoký plot, vzadu dokonce 3 metry, jsou tu závory, infra závory, komunikační koridory a celé to podléhá certifikací NBÚ.
Abyste se dostali z ulice až k serverům, musíte překonat devět bezpečnostních bariér. Sledovat vás při tom bude 83 kamer s automatickou detekcí pohybu, které během naší prohlídky zaznamenají každý náš krok.
Elektřina je základ
Před zahájením samotné stavby bylo potřeba vyřešit zásobování elektřinou, což s vyřízením veškeré byrokracie zabralo pět let. Podařilo se nám ale přivést dva samostatné VN přívody ze dvou pražských rozvoden. Jeden kabel vede kolem pošty do jedné rozvodny tady v Malešicích, druhý pak vede kolem areálu do šest a půl kilometrů vzdálené rozvodny v Měcholupech. Jsou to vyhrazené kabely jen pro nás a nikdo jiný na ně nikdy připojený nebude.
V Praze je celkem pět takových rozvoden a dvě najednou vypadly na více než 20 minut naposledy v roce 1984. Nejbližší datové centrum se stejným způsobem dvojitého VN připojení je až ve Frankfurtu.
Budova byla vybírána právě i s ohledem na dostupnost dostatečného množství silové elektřiny. Takové připojení dnes už seženete jen na Praze 10, nikde jinde to není možné. Buď jsou rozvodny plné nebo se kolem nich nedá kopat,
vysvětluje Majer.
Kabely se sbíhají v malé rozpínací stanici na pozemku datacentra. V její distribuční části je příčná spojka, která je schopná automaticky v případě výpadku do pěti sekund přepnout na přívod z druhé rozvodny. Odtud vedou kabely do druhé poloviny stanice, ve které se nachází další příčná spojka. Jsou to vlastně dvě zatočené osmičky v sobě. Z rozpínací stanice pak už vedou dva 22kV 10MW kabely do datacentra do VN rozvodny. Každý kabel prochází vlastním kolektorem z jiné strany budovy.
Výhodou je, že datacentrum je schopno za plného provozu přidávat další transformátory. V Česku je jen pět takových zapojení, je to velmi moderní způsob,
vysvětluje Majer.
Kdyby přesto došlo k výpadku, jsou za budovou dva kontejnery s diesel agregáty, pro které jsou pod zemí uložené dvě nádrže, do kterých se vejde 50 tisíc litrů nafty. V každém dieslu je ještě tisícilitrová provozní nádrž,
říká nám Radek Majer a otevírá nám dveře jednoho kontejneru. Uvnitř je ohromný agregát, který zabírá celý prostor kontejneru.
Na dotyk je zařízení horké, protože je neustále vyhřívané. Znáte to, studený motor špatně startuje. Když je teplý, naskočí okamžitě. Já vám ho můžu zapnout,
říká náš průvodce, stoupne si k dotykovému displeji a motor se rozeřve. Při otevřených dveřích je zvuk ohlušující, když se ale zavře, zbude jen tiché vrčení. Zvuk jsme si pro vás nahráli na diktafon – poslechněte si: zvuk diesel agregátu.
Zatím jsou tu dva agregáty, vybetonované místo je pro další jeden a při plném datacentru jich tu bude devět. Každý z nich má výkon 1650 kVA. Vše je samozřejmě ještě jištěno bateriemi uvnitř budovy, které pokryjí výpadek do naskočení agregátů schopných do plného provozu najet za 35 sekund. Všechno v budově je jištěno pomocí UPS, jedinou výjimkou jsou kompresory chlazení, které mají ohromný příkon.
Chlazení na několik způsobů
Nedílnou součástí každého datacentra je chladicí systém, tady jich mají několik. Už kolektory pro vedení elektřiny musíme chladit. Mají sedmdesát metrů na délku a vejde se do nich Fabie,
vysvětluje nám Radek Majer. Do kanálu se nasává vzduch z venčí, který při průchodu chladí i transformátory. Na střeše pak uvidíme výdechy vzduchu z kolektorů.
Venku za budovou stojí dvě „bandasky“ na uskladnění nachlazeného média – vody s glykolem. Kdyby došlo k výpadku energie, přestanou fungovat kompresory chlazení. Než naběhnou diesely, musíme mít někde nachlazenou zásobu vody.
Zatím jsou dvě, při plném provozu přibudou další dvě.
Samotné sály se servery jsou pak většinu roku chlazeny pomocí free coolingu (volného chlazení), kdy jsou na střeše velké chladiče s žebrováním, kterým se pomocí větráků prohání vzduch. Tenhle systém nám stačí přibližně do 19 stupňů Celsia, jen v létě musíme zapnout aktivní chlazení pomocí ‚ledniček‘.
Oba systémy přitom umí pracovat současně a poměr jejich výkonu je možné plynule regulovat. K aktivnímu chlazení se využívají dva stroje, každý z nich má výkon 770 KW. Teď neběží, rozběhnou se možná někdy v červnu.
Trubky rozvádějící chladicí médium jsou spojovány systémem Victaulic a trubky jsou sešroubovány pomocí těsnicích spojek. Tahle část budovy se stavěla tři měsíce. Kdybychom měli všechny trubky svařovat, trvalo by nám to přes rok.
Další výhodou tohoto způsobu spojování je možnost snadné opravy. I já umím kus prasklé trubky během několika minut vyndat a vyměnit,
vysvětluje nám systém Majer. Únik chladicí kapaliny detekují záplavové kabely na podlaze a v místnosti jsou i detektory glykolu.
Pokojíčky pro servery
Přicházíme chodbou k místnostem se samotnými servery. Těm se tady říká pokojíčky a při plném provozu jich tu bude až 34, což je více než 1000 racků s technikou. Název pokojíček je zcela na místě, před každými dveřmi svítí číslo pokoje jako v hotelu. Zatím je obsazen jen jeden sál, ostatní na své hosty teprve čekají.
Přístup sem je podle NBÚ na úrovni tajné, stejně jako ústředna a kabeláž. Přístupové čtečky jsou v současné době na úrovni vyhrazené/důvěrné, výměnou modulu je můžeme povýšit na úroveň tajné.
Celá budova je vybavena tak, aby byla maximálně modulární – zákazník si může zvolit úroveň zabezpečení, jeden z 29 typů napájení, volí z 18 možností chlazení a podobně. Umíme extrémně low-end služby a zároveň dokážeme na požádání k jednomu racku přivést až 80 KW energie.
Přestože zákazníci se často ptají po jednom velkém sále, rozdělení do menších místností dává podle Radka Majera smysl také z energetického hlediska. Zákazník si do jedné místnosti dá starší techniku, kterou mu budeme chladit třeba na 22 stupňů. Do druhého sálu si pak umístí nové servery, kterým stačí 30 nebo 34 stupňů. Tím vzroste efektivita a dá se ušetřit několik desítek procent ceny za energie.
Sto tisíc čidel
Jen z rozvodny studeného vzduchu jdou signály z 45 tisíc čidel do monitoringu. Další čidla jsou na každém jističi, v každém racku jsou čtyři teplotní čidla na dveřích, v sálech jsou diferenční čidla tlaku a další. Celkem je v budově přes 100 tisíc čidel, která sbírají data v různých intervalech. Něco snímáme jednou za tři sekundy, některá data potřebujeme několikrát za sekundu.
Datacentrum má vyvinutý vlastní systém sběru a zpracování dat, na který jsou připojené i systémy chlazení nebo větráky v jednotlivých sálech. Sami si řídíme proudění vzduchu a nefoukáme tam, kde to právě není potřeba. Pokud se někde změní stav, systém okamžitě zareaguje,
říká nám Radek Majer a otevírá dveře do jedné z uliček. Během dvou sekund se roztočí větráky a systém začne vhánět do prostoru více vzduchu.
Vše se pak sbíhá v dohledovém centru, kde obsluha vidí obraz z kamer, může si zobrazit informaci ze všech čidel včetně meteo stanice na střeše. Můžeme se naživo podívat na všechny hodnoty nebo si nechat vykreslit graf z historie. Víme, kdo kdy otevřel dveře, kdo je ve kterém sále, jaká je tam teplota a vlhkost a podobně.
Stejně tak je možné sledovat efektivitu na úrovni jednotlivých racků, zkreslení sítě, účinnost klimatizací a podobně. Navíc všechny údaje vidí i zákazníci, kteří mají přes web přístup k datům týkajícím se jejich zařízení.
Promyšlené do detailů
Odcházíme z nejnovějšího českého datacentra s velmi pozitivními dojmy. Na celém projektu je vidět, že ho připravovali lidé, kteří mají s provozem datacentra velké zkušenosti. Vše má své místo, vše je podrobně monitorované a rozmyšlené do detailů. Projekt a jeho přípravu dělalo 400 lidí,
potvrzuje nám Radek Majer.
Z hlediska budoucích zákazníků je zásadní doplnění inteligence v podobě čidel a řídicího systému a hlavně velká modularita. Každý projekt má jiné požadavky, jiný hardware a jiné finanční možnosti. Zákazníci tedy mají možnost si svůj pokojíček nakonfigurovat a v budoucnu nastavení upravovat třeba při obměně techniky.
Celá budova přitom byla postavena za devět měsíců – tři měsíce trvala betonáž a dalších šest měsíců pak zbytek stavby a instalace všech technologií. Radek Majer nám také prozradil cenu celé stavby. Když nezapočítáme koupi budovy a pozemku, stála příprava datacentra 253 milionů korun. Včetně všech výkopových prací, přeložky plynu a horkovodu, energetiky a vedení optických tras mezi datovými centry Tiskařská a Sazečská.
V tuto chvíli je ale postavena jen osmina celé budovy, která je od začátku připravená na další růst.