Centra danych: średnie firmy otwarte na nowości
2010-02-14 00:32
Firma Symantec przedstawiła wyniki "Raportu o centrach danych" ("2010 The State of Data Center") realizowanego trzeci rok z rzędu. Wynika z niego, że średniej wielkości przedsiębiorstwa częściej deklarują gotowość stosowania nowych technologii - takich jak "cloud computing", deduplikacja, replikacja, wirtualizacja pamięci masowych i ciągła ochrona danych - niż małe firmy i duże korporacje. Redukcja kosztów IT i wdrożenie narzędzi do efektywnego zarządzania rosnącą złożonością infrastruktury są ich priorytetem.
Przeczytaj także: Centra danych: walka z kryzysem
Z raportu wynika, że średniej wielkości przedsiębiorstwa deklarują większe zaangażowanie we wprowadzenie zmian w centrach obliczeniowych – w 2010 r. menedżerowie IT planują wprowadzenie znaczących zmian w centrach danych, w tym wdrożenie nowych aplikacji. Ponadto średniej wielkości firmy kładą największy nacisk na obsadę kadrową i szkolenia.„Choć firmy średniej wielkości zwykle szybciej wdrażają nowe technologie niż większe przedsiębiorstwa, to wciąż borykają się z problemami w centrach obliczeniowych, na które nakładają się nowe inicjatywy” – powiedział Deepak Mohan, wiceprezes, Information Management Group w firmie Symantec. „Standaryzacja w ramach heterogenicznych rozwiązań, zarządzanie nowymi technologiami i automatyzacja procesów, przyniesie błyskawiczną redukcję kosztów, a w dłuższej perspektywie ułatwi pracę menedżerów centrów danych”.
Najważniejsze wnioski z „Raportu o centrach danych”:
- Średniej wielkości przedsiębiorstwa łatwiej deklarują gotowość zastosowania nowych technologii. W przeciwieństwie do małych i dużych firm, średniej wielkości przedsiębiorstwa uruchamiają nowe inicjatywy technologiczne, takie jak „cloud computing”, replikacja i deduplikacja o 11-17 procent szybciej.
- Największe obawy firm związane są z nadmierną złożonością i rosnącą liczbą aplikacji w centrach danych. Większość przedsiębiorstw ma 10 lub więcej aktywnych inicjatyw w centrach danych, które są oceniane jako ważne lub kluczowe. Pięćdziesiąt procent ankietowanych spodziewa się „istotnych” zmian w swoich centrach danych w 2010 r. Połowa wszystkich przedsiębiorstw potwierdza względnie szybki lub szybki przyrost liczby aplikacji, druga połowa uważa, że realizacja umów SLA jest trudna i kosztowna. Jedna trzecia korporacji uważa, że wydajność pracowników spada z powodu nadmiernej liczby aplikacji. Problem nasila nieustający wzrost ilości danych, co skłania 71 procent organizacji do rozważenia technologii ograniczających ich skalę, takich jak deduplikacja.
- Bezpieczeństwo, kopie zapasowe, przywracanie danych oraz ciągła ochrona danych to najważniejsze inicjatywy w 2010 r. Osiemdziesiąt trzy procent przedsiębiorstw uznało bezpieczeństwo za kwestię dość lub bardzo ważną. Siedemdziesiąt dziewięć procent wyraziło podobną opinię na temat kopii zapasowych i przywracania danych, zaś dla 76 procent jedną z najważniejszych inicjatyw jest ciągła ochrona danych.
- Połowa ankietowanych przedsiębiorstw zgłasza, że cierpi na umiarkowane bądź poważne niedobory kadrowe. Największym problemem podczas rekrutacji jest znalezienie budżetów i wykwalifikowanych kandydatów. Siedemdziesiąt sześć procent przedsiębiorstw ma w tym roku taką samą lub większą liczbę wakatów.
- Potencjał optymalizacji procedur disaster recovery jest wciąż duży. Jedna trzecia planów w tym zakresie jest nieudokumentowana lub wymaga dopracowania. Istotne obszary IT, takie jak cloud computing, zdalne biura i wirtualne serwery, często nie są w nich uwzględnione. Sprawę pogarsza fakt, że niemal jedna trzecia przedsiębiorstw nie przeprowadziła oceny swoich planów disaster recovery w ciągu ostatnich 12 miesięcy.
- Przedsiębiorstwa skupiają swoją uwagę na ochronie wirtualnych maszyn. Spośród ankietowanych firm, 82 procent będzie rozważać wirtualizację w 2010 r. Respondenci wskazywali, że największym problemem jest granularność odzyskiwania danych w obrębie obrazów wirtualnych maszyn.
- Szczególnie ważne dla średniej wielkości przedsiębiorstw, chętniej sięgających po nowe technologie, ale z ograniczonymi kompetencjami i zasobami kadrowymi jest oprogramowanie wspierające środowiska heterogeniczne.
- Firmy powinny stosować deduplikację „na źródle danych”, a nie na urządzeniach deduplikacyjnych, redukując nie tylko koszty pamięci masowych, ale także koszty związane z utrzymaniem sieci LAN/SAN.
- Administratorzy centrów danych powinni mieć możliwość zarządzania pamięciami masowymi w heterogenicznych środowiskach w sposób zapewniający efektywne wykorzystanie posiadanych zasobów i eliminacji sytuacji, w których zakup sprzętu jest powodowany restrykcjami technicznymi posiadanego oprogramowania. W tym celu przedsiębiorstwa powinny wdrażać nowe technologie, takie jak zarządzanie zasobami pamięci masowych (SRM), thin provisioning, deduplikacja, wirtualizacja pamięci oraz ciągła ochrona danych (CDP). Firmy stosujące całościowe podejście do zarządzania pamięciami masowymi, wielokrotnie lepiej kontrolują wydatki niezbędne na ten cel, często opóźniają kolejne zakupy.
- Testowanie procedur disaster recovery jest niezbędne, ale może mieć duży wpływ na bieżącą działalność firmy. Przedsiębiorstwa powinny dążyć do usprawnienia testów w drodze oceny i wdrożenia metod testowych, które nie wprowadzają zakłóceń do normalnej działalności.
- Organizacje powinny wdrażać uniwersalne rozwiązania do ochrony zasobów fizycznych i wirtualnych maszyn, upraszczając zarządzanie informacją.
Badanie bazuje na ankiecie przeprowadzonej w listopadzie 2009 r. wśród 1780 menedżerów centrów danych w 26 krajach – w tym również z Polski.
Przeczytaj także:
Centra danych - kłopoty z zarządzaniem
oprac. : Regina Anam / eGospodarka.pl