"Dziwne, u mnie działa" - współczesny informatyk
Dosyć często i dużo mówi się o obsłudze klienta. Ale głównie mówi się o kliencie rozumianym jako klient danej firmy. Jednak w ramach organizacji też funkcjonuje pojęcie klienta – klienta wewnętrznego. Poszczególne działy świadczą przecież usługi dla innych jednostek organizacyjnych firmy.
Współpraca na linii tzw. biznesu, który chce „coś co działa, jak u nich, tylko lepiej” z pracownikami IT, którzy potrzebują wiedzieć co trzeba zrobić, aby „coś działało jak u nich, a nawet lepiej”. Relacje między tymi obszarami są źródłem nieskończonej ilości anegdot. Jednak co by się nie działo biznes w obecnych czasach nie da rad bez IT. Ważne jest aby obie strony się rozumiały, na pewno w zakresie czym ma być „guzik, który włącza coś” – czyli co dokładanie ma się wydarzyć, gdy guzik zostanie naciśnięty. Zespoły IT muszą umieć rozumieć „po biznesowemu” a biznes powinien wysłuchać i zrozumieć. A jak nie rozumie, to pytać, pytać i pytać. A IT jak nie rozumiem odpowiedzi biznesu, to też pytać winno. Oni muszą się porozumieć, a nie dorozumieć – to ma znaczenie.
Maciej Buś zaprosił do rozmowy dotyczącej współpracy tzw. biznesu i IT Łukasza Zwierzchowskiego z Hewlett Packard Enterprise oraz Łukasza Włodarczyka z INNERGO.
Minuta po minucie, czyli o czym rozmawiamy:
- Kto jest klientem Działów IT, a także producentów sprzętu i integratorów, a także odpowiadamy na pytanie kto to jest informatyk i jaki ma to związek z lekarzem
- Z kim spotyka się tzw. Inżynier Wsparcia Sprzedaży i co robi i dlaczego IT musi mieć świadomość biznesową
- Czy biznes ma świadomość technologii i czy im to potrzebne do życia. I dlaczego analityk biznesowy jest potrzebny. I dlaczego współpraca IT z biznesem jest kluczowa.
- O co chodzi z sześcioma dziewiątkami i SLA
- Jaka jest rola działu IT w firmach
- Kiedy klienci boją się nowego rozwiązania
- a ile kosztuje… to coś?, czyli co powinno być w zapytaniu ofertowym
- analiza jest zrobiona, ale… biznes tak chce i jak tu IT ma się ustawić
- uczenie maszynowe, czyli… jakie i po co to i czy lodówka też uczy się?
- Co robi „networkingowiec” i jak pomóc może
- Czym chmura A różni się od chmury B i dlaczego warto przewidywać ryzyka
- Łukaszów wytyczne, aby projekty były dobrze zrealizowane
Przydatne linki
- Łukasz Zwierzchowski na LinekdIn
- Łukasz Włodarczyk na LinkedIn
- HPE Hewlett Packard Enterprise
- INNERGO
Dzień dobry Łukaszu, dzień dobry, Łukaszu. Dzisiaj jesteśmy w trójkę, w związku z tym przełom w podcaście Klientomania, bo to pierwszy podcast z dwojgiem gości. Mamy dwóch Łukaszów – Łukasz Zwierzchowski z firmy HPE i Łukasz Włodarczyk z Innergo.
Przedstawcie się, proszę, naszym słuchaczom, kim jesteście, czym się zajmujecie?
Zacznijmy od Łukasza Zwierzchowskiego.
Łukasz Zwierzchowski
Dzień dobry Państwu, ja nazywam się Łukasz Zwierzchowska. W HPE pełnię rolę Data Driven Ambasadora, zajmuję się rozwiązaniami napędzanymi danymi.
Użyłeś dwóch słów, które mnie zaintrygowały. Pierwsze to HPE. Przyznam się, że jak dostałem informację, to myślałem, że ktoś błąd popełnił i napisał HP tak jak się czyta. Wiesz, dla mnie HP to drukarka, która cały czasu mnie jeszcze pracuje i mój pierwszy komputer pewnie z lat temu 20, to było HP. Ale to rozumiem to HP to nie jest przejęzyczenie?
ŁZ: To nie jest przypadek. W 2015 roku nastąpił podział na trzy spółki. HP, Hewlett Packard, to jest ta część, którą kojarzysz z drukarek, laptopów, urządzeń konsumenckich. Na HPE, Hewlett Packard Enterprise, to jest część odpowiedzialna za sprzedaż rozwiązań takich, jak macierze dyskowe, serwery i DXC, to jest dawna część usługowa starego HP.
Drugie hasło to jest Ambasador. Brzmi to bardzo poważnie.
ŁZ: My się z moim menedżerem spieramy czy tutaj bardziej ambasador, czy architekt. Myślę, że moja pozycja obecna to coś pomiędzy architektem, a ambasadorem. Ambasador odnosi się do rynkowego mentora, rynkowego guru technologicznego odnośnie danego tematu. Akurat ja tutaj zajmuję się rozwiązaniami napędzanymi danymi, to temat dość nośny ostatnio. Jednocześnie tworząc rozwiązania, doradzając w tym zakresie.
I drugi Łukasz.
Łukasz Włodarczyk
Nazywam się Łukasz Włodarczyk, jestem inżynierem w dziale wsparcia technicznego Innergo. Zajmuję się doradztwem i analizą potrzeb klientów, dobieraniem pod ich potrzeby, pod ich wymagania, pod realizację systemów, celem rozwiązania ich problemów, właśnie rozwiązań sieciowych różnych producentów, ale przede wszystkim skupiamy się na rozwiązaniach HPE.
Pomyślałem sobie, że po drugiej stronie Waszej pracy jest klient, ale klient dosyć specyficzny, czyli IT, informatyk itd. Tu otwierają mi się różnego rodzaju historie śmieszne albo przerażające typu dzwoni ktoś do działu IT, że coś nie działa… „a u mnie działa”. Drugie to jest takie wyobrażenie informatyka w firmie. Zastanawiam się jak w Waszej praktyce, z jednej strony producenta, z drugiej strony integratora tak naprawdę Wy wdrażacie, czyli pracujecie z tymi firmami, z tymi ludźmi, jak bardzo zmieniła się rola właśnie takich klientów, czyli kto jest właściwie Waszym klientem? Czy jest to informatyk, programista, administrator? Chciałbym w dzisiejszym podcaście porozmawiać na ten temat – kim jest ten klient? Jak się z nimi pracuje? I jak zmieniło się to, czym Wy się zajmujecie, czyli mówimy o zarządzaniu danych, przenoszeniu pewnych rzeczy w chmurę, czyli technologie zupełnie inne niż 20-30 lat temu. Czy jest dzisiaj łatwiej, czy mamy jakieś bariery? Zacznijmy od pytania – kto jest Waszym klientem? Zbudujmy sobie sylwetkę, obraz Waszego odbiorcy.
ŁZ: U mnie to są głównie klienci z sektora SMB, więc małe, średnie firmy, tych Enterprise’owych klientów mam stosunkowo niedużo, więc te zasoby IT, ludzie odpowiedzialni za IT to nieduże zespoły. Często bywa problemem, też w webinarze opowiadałem trochę o tym uproszczeniu centrów przetwarzania danych, to właśnie jest świetne rozwiązanie dla takich firm, natomiast większość naszych klientów posiada zespoły IT w pewnym ograniczonym zakresie. Natomiast poruszyłeś ciekawą kwestę percepcji informatyka w dzisiejszym świecie. To jest dość zabawne, bo jak opowiadam co robię w firmie to muszę pół godziny opowiadać co dokładnie robię. Dobrą analogią jest zawód lekarza. Mamy wiele lekarskich profesji, każda zajmuje się czymś innym. Mamy chirurgów, dentystów, a każdy jest lekarzem. Podobnie jest z informatykami, mamy programistów, mamy ludzi odpowiedzialnych za sprzętową część, mamy DevOpsów, mamy operations. Ważne jest wzajemnie zrozumienie pomiędzy tymi stronami już w zakresie samego zespołu IT. Natomiast jeżeli dochodzimy do części porozumienia pomiędzy zespołem IT, a biznesem to często pojawiają się pewne problemy, o których pewnie zaraz będziemy tez opowiadać.
Łukasz, jak to u Ciebie jest? Z kim Ty się spotykasz – z informatykami? Łukasz wymienił szereg ról, jacyś DevOpsi, nie chciałem powiedzieć dewianci… Programiści na przykład uważają, że nie są informatykami. Z kim Ty się spotykasz?
ŁW: W ujęciu mojego zadania to tak naprawdę muszę się spotykać ze wszystkimi. Jako inżynier wsparcia muszę patrzeć na problemy, na klienta całościowo. Muszę analizować nie tylko i wyłącznie potrzeby technologiczne, czyli tych działów IT pod kątem przełączników w moim przypadku. Natomiast bardzo mocno muszę przekazać działom biznesowym albo odpowiedzialnym za inwestycje jakie korzyści będą z tego mieli. Jak przytoczyłeś to wspomniane „u mnie działa”, też się pojawia „did you try to turn it off and on?”. Niestety to jest bardzo powszechne błędne postrzeganie tych działów IT. W dobie obecnych przemian i zmian nie tylko i wyłącznie w zakresie usług, ale tez w jaki sposób cała firma powinna być prowadzona coraz bardziej to cyfrowe podejście do biznesu jest kluczowe, nie oszukujmy się. I to tak naprawdę na tych działach IT spoczywa przygotowanie całej infrastruktury, całego backgroundu, doświadczenia, czy to usług bankowych, czy zdrowotnych, czy marketingowych, czy usług medialnych i udostępnienie ich tym odbiorcom dla tego konkretnego przedsiębiorstwa lub firmy.
To Ty jako inżynier wsparcia wspierasz bardziej działy IT, czy biznes?
ŁW: Pre-sales jest z założenia kimś, kto musi być jedną nogą po obu stronach. Muszę rozumieć biznes, jak on funkcjonuje, być w stanie przeanalizować procesy, które tam są, ale z drugiej strony też tak przygotować tę część technologiczną, rozwiązania, oprogramowanie, platformy, żeby ten biznes rękami działu IT był w stanie zrealizować założenia biznesu. W dobie tych przemian zaczyna się zacierać. biznes też musi mieć świadomość technologiczną i działy IT muszą mieć świadomość biznesową. Bez tego poprawne funkcjonowanie firmy w obecnych czasach jest mało realne.
A obserwujecie patrząc na dzisiejsze czasy jak funkcjonują w sferze prywatnej, w kulturze nanosekundy, kiedy wszystko ma być dostępne, czy biznes faktycznie ma świadomość informatyczną albo technologiczną? Czy dla nich tak naprawdę jest bardziej proces, który ma działać, czy oni faktycznie szukają bardzo konkretnego rozwiązania, albo zagłębiają się te wszystkie serwery, nie serwery, patche, chmury…
ŁW: Niestety nie są w stanie tego zrobić.
Ale czy powinni?
ŁW: Powinni brać pod uwagę możliwości technologiczne i zasoby, którymi dysponują i ewentualnie oprócz inwestycji w ten plany marketingowe, plany biznesowe też uwzględnić inwestycje w całą infrastrukturę i ten cały background techniczny, który jest niezbędny do jego realizacji. Rzadko kiedy jest osoba u takiego klienta, która stoi pośrodku i jest w stanie zobaczyć te potrzeby biznesowe, przeanalizować je i przenieść na wymagania, które musi przedstawić działowi technicznemu. To jest trudne, to są ludzie z wieloletnim doświadczeniem projektowym, którzy całościowo patrzą na dany problem.
ŁZ: Myślę, że my w HPE, razem z partnerami, między innymi z Innergo, zawsze staramy się rozmawiać zarówno z działami technicznymi jak i biznesem i stajemy się mediatorem pomiędzy działami. Staramy się wyciągnąć jak najwięcej informacji z obu stron tak, żeby z wywiadów, które przeprowadzimy zbudować jakieś rozwiązanie realnie dopasowane do prawdziwych potrzeb klienta. Często IT ma tendencje do podążania za nowinkami technologicznymi, tutaj przykład dysków NVME, które są szybsze, ale nie zawsze konieczne. Tutaj biznes ma problem, żeby powiedzieć jakie ma wymagania. Ma po prostu działać. To jest dla nich istotne i znalezienie wspólnego języka jest tutaj kluczowe, żeby dogadać się do SLA, to realnie jest nam potrzebne, jak wiele tych „dziewiątek” jest potrzebnych do naszego środowiska, jak szybko musimy odzyskać to środowisko, jakie technologicznie zastosować rozwiązanie. Myślę, że ta współpraca jest kluczowa. Jeżeli jej nie ma, to często musimy wejść w pozycję mediatora, który wspomoże klienta, pokaże mu dostępne rozwiązania i dopasuje końcową ofertą do potrzeb biznesu i tego, co wymaga IT.
Ja jestem może w obszarze IT może nie bardzo laikiem, ale ja jestem jeszcze trzecim etapem. Z jednej strony jest producent, jest integrator, jest strona IT i jest konsultant, który tak naprawdę pomaga bardzo często w firmie ułożyć biznes. To może być bardzo często tak, że menedżer pójdzie na konferencje, usłyszy o Data Driven i mówi, że my też takie chcemy mieć, zarządzać danymi, my też chcemy wiedzieć jak najwięcej o swoich klientach itp. W związku z tym wtedy albo przychodzę ja albo jakiś konsultant i mówi co zrobić, żeby tymi danymi zarządzić. I w tym momencie robimy cały projekt, procesy, idziemy do integratora, producenta i mówimy, że chcemy takie coś. I mnie faktycznie średnio interesuje jak to jest zrobione, bo na koniec dnia musimy to skonfrontować czy będzie bezpieczne, czy będzie działało. Ale to Wy jesteście specjalistami od tego, żeby znaleźć rozwiązanie na potrzebę klienta. Ja ją zebrałem, ja ją opisałem, pomogłem im wyklarować jak ona ma wyglądać, ale to już Wy, jako inżynierowie dobieracie rozwiązanie na podstawie tego zapytania, prawda?
ŁW: Bardzo często to rozwiązanie albo podejście jest mocno przeskalowane, czyli nie przystaje do jego potrzeb, rzeczywistych wymagań, a najczęstszym przykładem i to jest coś z czym się działy IT muszą borykać to to, że mają ograniczone możliwości i biznes nie rozumie jak duża inwestycja i zasoby technologiczne stoją za realizacją bardzo małego punkciku w tym projekcie.
I teraz mamy z jednej strony potrzebę, którą biznes widzi, czyli na przykład jakaś potrzeba funkcjonalna. Z drugiej strony mamy to, czego nie widać. Ten background funkcjonalny. Patrzę na to z perspektywy kogoś, kto ma jakąś wiedzę na temat tego, natomiast nigdy nie byłem informatykiem i nigdy nie pracowałem w IT i tak sobie rozumiem, że jest jakaś warstwa, której nikt nie rozumnie i pewnie nie zrozumie od strony biznesu i tu wspomniałeś o tych dziewiątkach, za chwileczkę chciałbym wyjaśnić czym są owe dziewiątki. I to jest ta warstwa bezpieczeństwa, która często kosztuje kupę pieniędzy i którą trzeba w jakiś sposób zarządzić. Dobrze to opisałem?
ŁZ: Tak.
To skoro te dziewiątki się pojawiły, Łukasz, jak mógłbyś opowiedzieć czym są dziewiątki i czym są drugie trzy literki, czyli SLA?
ŁZ: Zacznę od dziewiątek. Taki rynkowy standard dla macierzy klasy Enterprise to jest sześć dziewiątek 99,9999% dostępności do danych. To przekłada się na przeciętną przewidywaną dostępność do danych na poziomie 31 sekund w skali roku. To jest to, czego oczekujemy. Jak to jest obliczane to jest istotne. U nas w HPE mamy jedno z narzędzi, o którym mówię również na webinarze. TO jest HPE Infosight, które dzięki zbieranym danym telemetrycznym ze wszystkich macierzy zakłada nam case’y serwisowe, on jest w stanie dla całego naszego install base’u ile realnie tej niedostępności danych od konkretnego modelu macierzy mamy. NO i akurat dla większości macierzy tych Enterprise jest to około 99,9999%. To jest taki Enterprisowy standard. My mamy w HPE takie produkty, które mają 100% dostępności, za tym idzie realna gwarancja dostępności. Tutaj mamy gwarancję finansową. W wypadku, kiedy ta macierz, która ma gwarancję 100% dostępności, na przykład wypadną nam dwa kontrolery na raz w dwukontrolerowej macierzy, co spowoduje brak funkcjonalności, wtedy HPE wypłaci do 20% wartości wykupionej macierzy. My stoimy za naszymi produktami na tyle, ze jesteśmy w stanie taką gwarancję klientowi udzielić, dla naszych produktów Enterprise.
Czyli jest to miara sprawności, jest to powiązane z Service Level, która jest też w systemach, które ja wdrażam, czyli systemach obsługi klienta, systemach Contact Center, czyli każdy z dostawców definiuje w jakim stopniu gwarantuje, że ten system będzie działać. Jeżeli mówimy o tych bardzo głębokich systemach to są to systemy, które wymagają wysokiej dostępności. Robiłem taki projekt, gdzie firma robiła miliony obrotu dziennie na słuchawce i tam 5 minut niedziałającego systemu to nie były złotówki, to były tysiące, żeby nie powiedzieć dziesiątki tysięcy złotych strat, niezarobionych pieniędzy. Tam była tzw. Wysoka dostępność i tam SLA nie wiem, czy miało aż sześć dziewiątek, ale bardzo dużo tych dziewiątek tam było.
ŁW: Starty nie wynikają tylko i wyłącznie z tego, ze ta słuchawka nie działa, czy nie można się do klienta dodzwonić, bo przetwarzanie i składowanie danych to jest tylko jeden fragment. Jest jeszcze cała warstwa dostępowa, czyli sieć, czyli odpowiednie media dostępowe, mam tu na myśli łącza internetowe, żeby ci klienci mogli się w ogóle dobić do jakichś zasobów. Tutaj idealnym przykładem wielkiej ostatnio awarii jest Facebook, który tak naprawdę co z tego jak serwery działały, jak nie było dostępu do tych danych? Co z tego, że były super zabezpieczone jak fizycznie nie można było się do nich dostać, zęby cokolwiek zadziałać? Tutaj to SLA musi zadziałać na bardzo wielu poziomach. Kluczowego jest to, że tak naprawdę trzeba też połączyć te wymagania biznesowe, bo może się okazać, że jeśli strona nie będzie działała przez godzinę przeżyjemy, ale w takim banku, jeżeli nie będzie działał system transakcyjny, nie będzie działała aplikacja mobilna, nie będą działały karty to to już jest naprawdę bardzo mocno wymierna strata dla takiej firmy.
Na przykład OVH, pożar serwerowni, w zasadzie coś, co nie powinno się wydarzyć, bo tam też były zagwarantowane w umowach pewnie bardzo wysokie standardy, nie wątpię, ale jednak to się zdarzało i to jednak ma prawo. Nie powinno, ale mniej więcej to jest właśnie to, o czym mówimy o tej głębokiej warstwie, że gdzieś tam musi być zabezpieczona.
ŁZ: Jeszcze wspomnę jak jest zabezpieczona, bo to jest istotne. Często dostaję pytanie skąd bierze się te sześć dziewiątek? Wytłumaczyłem jak je obliczamy, natomiast to, jak zabezpieczamy takie urządzenia na przykładzie macierzy to jest redundancja na wielu poziomach. Na poziomie zasilaczy, kontrolerów dyskowych. To, że nam jeden kontroler wypadnie, automatycznie drugi kontroler automatycznie przełączy się na serwowanie danych. Nie spowoduje to przerwy dostępności do danych przez aplikację.
Ja będę głupie pytania zadawał. Co to jest macierz?
ŁZ: To jest miejsce, w którym przechowywane są dane. To urządzenie dedykowane do przechowywania danych.
Jakbym powiedział serwer to byłoby to?
ŁZ: Serwer to jest ta część, w której dane są przetwarzane. Oczywiście w serwerze również możemy mieć lokalne dyski, natomiast macierz dyskowa to jest dedykowane urządzenie do serwowania danych. One mogą być serwowane w różny sposób, to może być dostęp blokowy, najczęściej spotykany w tych macierzach enterprise, ale to również może być to dostęp plikowych, jak w NAS-ach, czy obiektowy, bardzo popularny, między innymi Google korzysta z technologii obiektowej.
Łukaszu, zastanawiam się teraz nad tym jaką rolę pełni dział IT w firmach? Z jednej strony mówimy o tej warstwie głębokiej, czyli pewnej sprawności, pewnego core’u, pewnego systemu bezpieczeństwa, na którym są dopiero nadbudowywane różnego rodzaju usługi. Z drugiej strony jest coraz więcej zewnętrznych usługodawców działających w chmurze. Kiedyś była taka moda, zarówno w biznesie, jak i prywatnie, że dobrze byłoby mieć swoje serwery, swoje oprogramowanie na własność, zresztą taki był model sprzedaży itd. Dzisiaj coraz więcej różnego rodzaju usług, również wsparcie jest dostarczany z zewnątrz. Jaka dzisiaj jest funkcja, struktura takiego współczesnego działu IT?
ŁW: Zauważam, że tak naprawdę oni mają coraz więcej roboty. Dlatego, że są niestety, ale pewne ograniczenia korzystania takich rozwiązań w chmurze. Nie oszukujmy się, są regulacje prawne, są regulacje polityki bezpieczeństwa danej firmy. Myślę, że nikt nie postawi hurtowni danych, ewentualnie systemu transakcyjnego odpowiedzialnego za przelewy między bankami w chmurze. To jest zbyt krytyczny system, żeby coś takiego zrobić. A z drugiej strony jest wiele zasobów, które można wynieść. Po co utrzymywać serwery, które tylko wyświetlają stronę? Po co utrzymywać te rzeczy, które nie są krytyczne pod kątem bezpieczeństwa informacji? W tej chwili największą wartość mają dane, więc tak naprawdę to wyświetlanie ich w tych systemach, obsługa pewnych procesów wyniesiona w chmurę może być bezpieczna. Oczywiście, możemy nadbudować wiele systemów dostępowych, wiele ograniczeń, systemy monitoringu, natomiast i tak i tak pewne zasoby dalej będą otrzymywane w centrali. Jest bardzo mocno to uzależnione od profilu działania, funkcjonowania danego klienta, danej firmy. Inaczej będzie podchodził do tego człowiek, który ma czysto usługowe i wykorzystuje praktycznie zasoby tylko i wyłącznie do księgowości, którą bardzo często ma gdzieś tam wyniesioną i tylko i wyłącznie korzysta z hostingu strony i poczty. Inaczej będzie to u tak skomplikowanych klientów jak firmy FMCG, gdzie mamy bardzo dużo różnych systemów, firmy, które mają logistykę, cały system finansowo-księgowy i to zbudowanie i rozłożenie tego i rozproszenie częstokroć uniemożliwia więc przejście do rozwiązania chmurowego.
Rozwiązanie chmurowe jest pewną opcją. Niejedyną i nie chciałbym tu się upierać bardzo mocno, natomiast zastanawiam się kiedy wchodzę do firm patrząc na naszą transformację, z jednej strony gospodarczą, następnie cyfrową to wchodząc do serwerowni przysłowiowo możemy zobaczyć taki patchwork technologiczny. Z jednej strony mamy rozwiązania z 2021 roku, ale znajdziemy tam różnego rodzaju systemy wciąż działające, jeszcze z lat 80-tych. I teraz zastanawiam się jak Wy, będą integratorami jak najbardziej współczesnymi, działającymi w duchu transformacji cyfrowej, z jakim wyzwaniem to się wszystko wiąże?
ŁZ: Wyzwanie jest duże. Te systemy legacy bardzo często ciężko przenieść na nową architekturę. Jeśli środowiska są mere-metalowe, czyli instalowane bezpośrednio na serwerach, bez warstwy wirtualizacji, i to jeszcze aplikacje, które działają na bardzo starych systemach, takie systemu jest rzeczywiście ciężko przenieść, taka firma musi sporo zasobów poświęcić, żeby realnie przetransformować się cyfrowo. Żeby przenieść systemy, które mają te swoje lata. Z lat 80-tych nie widziałem, ale późne lata 90-te się zdarzają u naszych klientów. Są nowe rozwiązania, którymi możemy to zastąpić, to nie jest coś, czego się nie da zrobić, tylko często wymaga zbudowania pewnych środowisk od zera praktycznie. Nie możemy zrobić tej prostej migracji, jak pomiędzy starszy i wersjami Vmware na nowszy, czyli wirtualizowane środowisko na nowszą wersję wirtualizatora, tylko tutaj musimy zbudować aplikację czy środowisko od nowa. TO jest to wyzwanie, z którym często się mierzymy, jest to często kosztowne.
A z jakimi obawami po drugiej stronie klienci spotykają się klienci przed decyzją w przejście na nowe rozwiązanie? Domyślam się jako poznaniak, że może to być kwota pieniędzy, ale czy są jeszcze jakieś inne?
ŁZ: Myślę, że są. Też często przez wiele lat operowaliśmy na środowisku, które bardzo dobrze znamy. Nagle mamy wprowadzić swoistą rewolucję. Jak mamy technologię sprzed 20 lat i przechodzimy na nową, mam wiele przypadków architektów, czy inżynierów, którzy lokalnie zajmują się macierzami starszej generacji, którzy znają idealnie SLI, wszystkie polecenia w linii komend, natomiast nie potrafią przestawić się na GUI, a wiele tych macierzy nowoczesnych skupia się na GUI i tu często wchodzimy ze szkoleniami, propozycją przeszkolenia takich zespołów IT, tę nową technologię i to też co warto podkreślić – myślę, że nie ma co się tego bać. Nowe technologie często idą w kierunku upraszczania, zmniejszania kompleksowości tych środowisk, jednocześnie zmniejszania ilości pulpitów zarządzania. Czyli skupienie zarządzania wokół jednego miejsca. Chcemy mieć docelowo taki experience chmury. Obecni klienci mają dwa wybory, jeśli chcą być konkurencyjni na rynku – muszą stać się jak chmura, zarządzać swoimi zasobami tak, jak w chmurze, bądź też przejść do chmury. Ja myślę, że tutaj zdecydowanie lepszą opcją jest zacząć działać jak chmura, często stworzyć sobie środowisko hybrydowe. Nie mówię, że chmura jest zła, potrafi być fajna i w wielu aspektach ma swoje plusy, natomiast myślę, że bardzo dobrym rozwiązaniem są środowiska hybrydowe. Klientów powoli przekonujemy do tego, od tego jest między innymi moja rola.
No dobra, ale jak zastanawiam się, jak z kompetencjami? Powiedzmy rola informatyka to jest jak ktoś był informatykiem w latach 90-tych, ja swoją karierę zaczynałem w połowie lat 90-tych, czyli powiedzmy człowiek, który ma prawie 50 lat, wykształcił się na tzw informatyka, jeszcze na PC takich kineskopowych. W każdym razie dzisiaj nadal bywają dyrektorami działów IT. I teraz pytanie czy stanowi to również obserwowaną przez Was barierę w takich wdrożeniach?
ŁW: Ja obserwuję bariery różne i jak dyskutowaliśmy na temat tego, kto jest naszym klientem, i biznes, i IT, i inne działy, tutaj zawsze jest w zależności od tego, co jest tym rdzeniem funkcjonowania danego działu, różne są obawy. W przypadku IT i dyrektorów IT trzeba przyznać, że bardzo mocno jest to uzależnione od tego jak bardzo mocno są rozwijane usługi cyfrowe w danej firmie. Nie oszukujmy się, jeśli klient tak naprawdę wystarczy mu to co ma i nie potrzebuje nowych funkcjonalności, nowych możliwości dotarcia do szerszego grona klientów to on zostanie przy tym i raczej nie zdecyduje się zainwestować. Bardzo często te obawy wynikają z tego, że będzie automatyka, wszystko wyniesiemy jako usługa i będziemy niepotrzebni i to też są pewne obawy. Czy uzasadnione? Tak, bo może tak patrzeć na to biznes i zarząd, natomiast z drugiej strony nie są świadomi tego, że ten dział jest dalej potrzebny i te zasoby nie dość, że powinny zostać utrzymane, to powinny być rozwijane. To jest szkolenie i poznawanie nowych technologii. Nie oszukujmy się, my nie możemy wykuć sobie na blachę paru dokumentów, paru komend i paru okienek, żeby przeklikać, bo tak naprawdę umrzemy. Technologicznie będziemy zacofani, nieprzygotowani na ewentualne zmiany i w szczególnie tak jak cały czas podkreślam – usługi cyfrowe, to jest coś, co tak naprawdę jest tym, co wymusza tak naprawdę rozwój, wymusza poszukiwanie nowych technologii, rozwiązań, na realizację naszych potrzeb biznesowych, a z drugiej strony redukcje kosztów i tutaj tak naprawdę jak wspomniałem – te role powoli zaczynają się przenikać i każda strona musi już zacząć patrzeć na drugą.
ŁZ: Widzimy tez pewien taki shift w kierunku wprowadzania innowacji przez zespoły IT. Od bieżącej obsługi środowisk, od monitoringu, zarządzania, powoływania środowisk w stronę powoływania innowacji, potencjalnych korzyści biznesowych dla przedsiębiorstwa, przewagi konkurencyjnej. Ten shift jest bardzo istotny, to przeniesienie ciężaru z bieżącej obsługi na innowacje. Często jest to istotne właśnie, żeby biznes o tym wiedział, żeby zarząd nie myślał o tym, że firma tych zespołów IT nie potrzebuje. Jak najbardziej potrzebuje, zgodzę się z przedmówcą, te zespoły powinny być rozwijane, cały czas są potrzebne, tylko troszkę w innym rejonie niż dotychczas. Kiedy wchodzimy z nowymi rozwiązaniami często to podkreślamy, że tu macie puszczone zarządzanie, ale jednocześnie możecie ten czas przeznaczyć na innowacje, na ulepszanie tego, co już macie, jak działa Wasza firma.
Chciałem dopytać o ofertowanie. Zdarza mi się często takie zapytanie, a ile kosztuje coś? Ile kosztuje Data Driving? Czego z Waszego punktu widzenia jak z jednej strony jako producenta, z drugiej strony bardziej jako integratora, bo rozumiem, że klienci raczej przychodzą do integratora, potem integrator przychodzi do producenta – jakich informacji, jakie dane powinna zawierać taka idealna oferta, czy zapytanie ofertowe? Czego Wam najbardziej brakuje, żeby w ogóle siąść i przygotować realnie odpowiedzialną ofertę?
ŁZ: Zazwyczaj po prostu od wywiadu z klientem. Już mam te pytania w miarę przygotowane przynajmniej w głowie. Zawsze pytam o to do czego konkretnie ma służyć nowe środowisko. Jakie są wymagania, czy one już powstały, między innymi o SLA, jaką dostępność musimy udostępnić tym środowiskom. Czy to ma być skalowalne środowisko, czy w zakresie pięcioletnim, trzyletnim chcemy skalować wysoko to środowisko, czy ono ma pozostać na podobnym poziomie przez cały czas jego użytkowania. To są te parametry podstawowe, oprócz tego czysto techniczne jak wydajność, konkretne funkcjonalności, które są istotne dla klienta, czy środowisko ma być jedno, dwusite’owe. Potencjalnych zmiennych jest bardzo dużo. Przechodząc do takiej rzeczy jak pojemność tego rozwiązania pod kątem storage, czy compute, czyli od strony obliczeniowej. To są podstawy i później wchodzimy troszkę głębiej w stronę infrastruktury, którą posiada. Często siadam z zespołem IT, rozmyślam nad tym, czy warto wykorzystać część środowiska, które już istnieje, patrzę na środowisko sieciowe, czy wykorzystujemy sieć SAN, czy LAN. Tu jest wiele aspektów do przegadania, te konsultacje trwają łącznie kilka godzin, to nie jest może strasznie długie, natomiast jest istotne.
Czyli w zasadzie trzeba dobrze zmoderować tego klienta i robią to właśnie producenci i integratorzy?
ŁW: Tak, powiem Ci szczerze, że bardzo rzadko się zdarza, żeby została zrobiona pełna prawidłowa analiza jak naprawdę potrzeb tego, co realnie będą musieli pozyskać. Dlatego, że w większości zapytania ograniczają się do czysto, nazwijmy to, technicznych aspektów. W przypadku sieci ile portów, jakie typu porty, w przypadku serwerów przypuszczam bardzo często zapytanie dotyczy ilości przestrzeni, typu procesora, obudowy, ilości slotów, wydajności. Koniec. Natomiast my nie znając tak naprawdę całego podłoża tych potrzeb nie jesteśmy w stanie tego środowiska realnie dobrać. Oczywiście możemy dać pudełko i powiedzieć klientowi – Kliencie, tu masz to, to jest to, co chciałeś. Natomiast w obecnym świecie i doświadczeniach przez wiele lat widać, i jest to coraz bardziej zauważalne, że nie ma dogłębnej analizy tych potrzeb. Przy dużych klientach, dużych firmach albo trzymają się standardu, który maja ustalony, narzucony, albo po prostu kupują, bo to kupowaliśmy do tej pory. Natomiast rzadko kiedy nadal niestety jest analiza biznesu, analiza techniczna i połączenie tych dwóch rzeczy.
ŁZ: Ja często zaczynam nawet swoje prezentacje dla klientów takim miękkim wejściem, small talkiem, nie stricte technologicznym, ale żeby poznać klienta, to jak działa, co jest im realnie potrzebne, bo bardzo często dostaję takie zapytania, nośny temat dysków NVME, jest to promowane dość mocno. Natomiast nie wszystkim jest to potrzebne. To rzeczywiście są szybkie dyski, mają swoje plusy, ale są wielokrotnie droższe od tańszego rozwiązania, które spokojnie nam wystarczy. Także znalezienie prawdziwych potrzeb, które pod konkretne środowisko klientowi są potrzebne często jest troszeczkę wymagające i wymaga delikatnego pociągnięcia za język, głębszej rozmowy, to jest sedno tego tematu.
Jeżeli dobrze zrozumiałem, powinniśmy poznać w ogóle kontekst. Pierwsza sprawa to jest kontekst całego przedsięwzięcia inwestycyjnego. Firma taka, a taka robi takie, a takie rzeczy, ma takie, a takie wyzwania. Druga sprawa to są pewne uwarunkowania.
ŁW: To powinno wynikać z analizy i przygotowania klienta przede wszystkim. Jak już wspomniałem rzadko kiedy to jest zrobione. Ja osobiście nienawidzę takiej analizy, nazwijmy to, w wersji papierowej, mailowej. Niestety tu trzeba pojechać do klienta. Porozmawiać z tymi ludźmi, którzy realnie po pierwsze przedstawią potrzeby i wymagania, po drugie zgodzą się tak naprawdę na możliwość porozmawiania. Oczywiście to zależy od tego do czego to ma służyć, ale porozmawiania z tymi, którzy będą to wykorzystywali. Prosty przykład – mamy Microsoftowe rozwiązania iWare, które tak naprawdę wymagają dosyć dużej wydajności połączenia. Biznes mówi, że chce to wdrożyć. Ok, mamy Google, mamy aplikacje i co dalej? IT powie – mamy AP-ki, to będzie działać. Nie mamy, to kupimy te, które kupowaliśmy do tej pory. Potem okazuje się finalnie, że taki AP musi mieć wydajność i realną prędkość powyżej 1,5Gbps. Jeśli AP wydoli, to musi być odpowiednie połączenie do pozostałych systemów, czyli odpowiednie porty w przełącznikach, odpowiednie medium transmisyjne. I bardzo często te rzeczy, które finalnie w projekcie powinny być uwzględnione, w analizie powinny być uwzględnione są bardzo często pomijane. I finalnie dowiezienie takiego projektu, do którego została niepełna analiza jest problematyczne.
Pytam, bo sam przygotowuję tego typu analizy i konfrontuję się czasami z tym, że niektórzy integratorzy, czy dostawcy próbują robić potem swoje. Bardziej wynika to chyba z pewnego standardu, bo myślę, że moje analizy są dobre ze względu na to, że one często bywa, że trwają nawet 4 miesiące. To są pogłębione rzeczy, gdzie my tak naprawdę wychodzimy od czegoś małego, typu „potrzebujemy call center”, a dochodzimy do bardzo dużych, ogromnych zmian. Czyli z jednej strony mamy kontekst, mamy uwarunkowania te wewnętrzne, czyli co jest itd. Mamy też kwestie pewnego zaangażowania tych uczestników, czyli z jednej strony biznesu, z drugiej strony IT. Tu jeszcze jedna uwaga. Zapytania tego typu występują bardzo często z poziomu IT. Jeżeli cokolwiek dotyczy tematów technologicznych to IT, nie biznes. A mam wrażenie, że w tej chwili te role się odwracają, że to w zasadzie biznes decyduje o tym, czego potrzebuje, jakich rozwiązań i mamy tę warstwę bardziej taką, która pilnuje pewnej zgodności, żeby jedno pracowało z drugim, albo żeby zapewnić odpowiednie wymagania dla realizacji tych usług, o których mówiłeś.
ŁW: Ja może bym tu nie nazwał odwracaniem ról, a zwiększenie synergii tych działów. Dlatego, że tak, jak do tej pory ważne było to, jak biznes działa, jak sprzedajemy, jak dostarczamy, to teraz jest ważna ta kolejna działka, czyli IT, którą musimy dokleić, żeby te wszystkie rzeczy prawidłowo funkcjonowały i działały tak, jak zakładamy.
Pytanie z innej bajki – Łukaszu, jak przygotowywałem się do naszego spotkania przeczytałem, że HPE ma system, który uczy się maszynowo. Czyli jak?
ŁZ: Dobre pytanie. Może zacznę czym infosight, bo mówisz o Infosight jest. Infosight to platforma oparta o sztuczną inteligencję i ona posiada modele machin elearningowe, wykorzystująca deep learning i potęga leży przy ogromie danych, które analizuje jednocześnie w danym czasie praktycznie z całego intal-base. Prawdopodobnie teraz posiadamy największą bazę danych na świecie na temat tego, jak działają centra baz danych naszych klientów. Infosight to jest platforma, która w interwałach 10-minutowych z praktycznie wszystkich macierzy naszych klientów, którzy decydują się na podłączenie do Infosighta analizuje dane. Na podstawie tych danych wrzuca model sztucznej inteligencji, który potrafi nam te dane przeanalizować, sprawdzić korelacje miedzy potencjlanymi awariami, to, co się już u klientów zdarzyła. Jeżeli u jednego z klientów po aktualizacji Vmware wystąpił problem, przykład prosty, kiedy wyszedł esx w wersji 6.0 wystąpiła globalna usterka polegająca na tym, ze wypinały się ścieżki z macierzy. Aktualizacja Vmware powodowała wypięcie wszystkich ścieżek do serwerów, co jednocześnie spowodowało bark dostępności do danych. Ogromny globalny problem nastąpił. To jest akurat fajny przykład, bo u jednego z naszych klientów, który akurat nawet nie miał wdrożonej takiej macierzy, ale posiadał macierz na Proof of Concept w 20 minut udało się przeanalizować to środowisko i znaleźć źródło problemu. W tym momencie flagi, które gdzieś się zapaliły u nas w systemach spowodowały, że powiadomiliśmy Vmware o tym problemie, z czego on wynika i ten problem został realnie naprawiony. Jednocześnie klienci, którzy posiadali środowiska na poprzedniej wersji tego SX, zostali powiadomieni, że taka awaria może nastąpić po aktualizacji tego Vmware. Ogromna korzyść biznesowa, sami nie jesteśmy w stanie tego zrobić. Nie możemy przeanalizować macierzy klientów, dzwonić i pytać czy u Ciebie na macierzy działa. Tu jest to w pełni zautomatyzowane, ta analiza przebiega non stop z interwałami 10 minutowymi już od ponad 10 lat, więc ta baza danych jest ogromna, cały czas przyrasta. Obecnie mamy 1250 bilionów punktów danych. Punkt danych w tym rozumieniu, że jest to pojedynczy czujnik w danej macierzy, czy też jakaś wartość, która jest przesyłana jako dane telemetryczne. Czyli zanonimizowane dane telemetryczne do naszego Infosighta. Infosight bazuje na naszych serwerowniach dedykowanych do analizy i przetwarzania tych danych i potem prodykcyjnie wysyłania rekomendacji naszym klientom. On potrafi również oprócz przewidywania potencjalnych awarii zakładać automatycznie case’y serwisowe. Podam fajny przykład, kolega pracował u nas w serwerowni jako główny inżynier naszego labu warszawskiego . Któregoś dnia dzwoni i pyta czy coś zamawiałem, bo przyszła do nich paczka na shipping. Okazało się, że jest to dysk do Nimbla. Powiedziałem, żeby zobaczył na Nimbla, może któryś dysk się zepsuł. Okazało się, że pomarańczowa lampeczka świeciła na naszym Nimblu. Kolega wyjąć stary dysk, włożył nowy. W środku była etykieta do zwrotu i to był koniec jeśli chodzi o cały przebieg case’a serwisowego.
System sam zamówił dysk?
ŁZ: Automatycznie założył case serwisowy po tym, jak zauważył, że jeden z dysków miał flagę wearout i został wysłany nowy dysk do klienta. Oczywiście kolega dostał maila z powiadomieniem o tym, musiał przeoczyć. Natomiast pokazuje to jak ogromną jak ogromną wartość ma to dla klienta docelową. Infosight zastępuje pierwszą i drugą linię wsparcia, mamy tylko trzecią, czyli wyspecjalizowanych inżynierów. Większość tych case’ów jest automatycznie zawieranych i zamykanych, mówimy o 80-90% przypadków. Ogromna wartość z punktu widzenia codziennego zarządzania taką macierzą. Prostota, nie musimy dodzwaniać się, a z drugiej strony jeśli mamy poważny problem, którego Infosight nie jest w stanie rozwiązać, jesteśmy w stanie dodzwonić się do trzeciej linii wsparcie w czasie poniżej 1 minuty, bo nasze zespoły są odciążone.
Wybacz, że spłycę, ale kojarzy mi się to z lodówkami, które same zamawiają jedzenie jeżeli na półce zaczyna czegoś brakować.
ŁZ: Pod tym względem, w tej funkcjonalności tak, ale to jest zdecydowanie bardziej zaawansowany case. Tutaj lodówka nam nie analizuje tak wielu czynników, ale tak.
Ja chciałbym zaznaczyć, że ta rozmowa jest fascynująca z tego względu, że co prawda ja bardzo wiele rzeczy nie rozumiem, o których mówisz i nie do końca rozumiem nazw, natomiast próbuję łapać sens. Szukam oczywiście w tym, co jest mi znane i stąd tego typu skojarzenie.
ŁZ: Kolejna bardzo częsta analogia, którą łatwo można klientom pokazać to są Google Mapy, których używacie codziennie. Kiedy jedziemy do pracy, do domu, wybierana jest automatycznie najlepsza możliwa trasa na podstawie wszystkich użytkowników, którzy obecnie mają włączonego GPS. Na podstawie ich ruchu, analizy tego te dane są dla nas przesyłane jako taka predykcyjna analiza tego, którędy najlepiej pojechać do domu. Tu jest podobnie, jesteśmy w stanie dostać informacje jak możemy zoptymalizować swój system, bo Infosight oprócz wszystkich fajnych rzeczy, o których powiedziałem, to automatyczna optymalizacja środowiska. Jesteśmy w stanie wysłać klientowi, czy system jest w stanie wysłać rekomendacje do rekonfiguracji środowiska. Na przykład „drogi użytkowniku, przenieś maszynę wirtualną z jednego hosta na drugi, bo ten pierwszy jest przeciążony”, drugi przykład „Twoje przełączenie awaryjne jest źle ustawione na macierzy, jeżeli padnie Ci port, kabel światłowodowy, Twoja macierz nie będzie serwować danych do aplikacji”. Fajne rzeczy, Infosight jest unikalny, jest najbardziej rozwiniętym rozwiązaniem na świecie pod względem tej głębokiej analityki nie tylko na poziomie przechowywania danych, ale też na tych wyższych poziomach, na poziomie sieci, serwerów. Cały ten stos technologiczny jesteśmy w stanie obsłużyć. To jest bardzo istotne z tego powodu, że większość tych problemów, które się zdarzają nie występują z powodów awarii sprzętu, tu mam na myśli macierzy. 90% problemów, które występują w środowiskach klientów leży powyżej warstwy przechowywania danych, powyżej macierzy. Jest wiele podobnych rozwiązań do Infosighta, ale one patrzą tylko na macierz, czyli są w stanie stwierdzić 10% potencjalnych problemów, a my potrafimy spojrzeć głębiej, na warstwę danych, transportu między serwerami, a macierzami, na przełączniki również, potencjał danych jest ogromny. Jest dużo większy niż to, co jest nam w stanie zapewnić konkurencja.
ŁW: Tak naprawdę to bardzo często jest jedna z obaw wdrażania tego rozwiązania dlatego, że szefowie działów IT myślą, że będą musieli się pozbyć białka, tego etatu, człowieka. To nie o to chodzi. Oddanie narzędzia, które nam zapewni, pozwoli zrealizować tę wysoką dostępność do tych danych, że w każdej sytuacji niezależnie od tego, co będzie się dalej działo mamy już pewną przewidywalność konsekwencji czy to funkcjonowania, czy to błędów konfiguracyjnych, czy to zdarzeń tak naprawdę niekoniecznie od nas zależnych, przewidywania ich, reagowania szybciej niż byśmy to zauważyliśmy. To ma być narzędziem, które pomoże, a nie zredukuje potrzeby.
ŁZ: I uprości cały proces. Często mówimy o zgadywance w procesie szukania prawdziwych źródeł awarii.
Mi tu przychodzi do głowy obawa, nie wiem czy uzasadniona, czy nie, to jest to, że tu nagle mamy takie obiektywne dane. Czasami jak to z raportowaniem jest – jeżeli ktoś potrzebuje jakie są dane to wysyłamy takie, jakie może i jest, natomiast tutaj są dostępne i nie da się w żaden sposób ich ani zmanipulować, ani ulepszyć, ani nic z tych rzeczy. Łukaszu, ale skoro mam tutaj człowieka od sieci, powiedziałeś, że jesteś sieciowcem, chmurowcem?
ŁW: Ja ze swojego doświadczenia wieloletniego pracowałem w różnych działach, technologiach i raczej chociaż jestem w tym dziale sieciowym, czyli tak naprawdę dostępu do danych, to ze względu też na specyfikę i na to, jakie mamy podejście do klienta rozszerzam swoje nie tylko i wyłącznie aktywności zawodowe, ale też prywatne na pozostałe gałęzie dlatego, że biznes, jak już wspomniałem oddzielony technologii i technologia oddzielona od biznesu już nie istnieją.
Spotykam się z dostawcami różnego rodzaju produktów, którzy oferują je w chmurze. No i teraz mamy różne chmury, różne serwery, czyli z jednej strony mamy data center, jedno, drugie, trzecie, czy Beyond, czy ATM, a z drugiej strony mamy AWS, Azure, Google Cloud. I teraz zastanawiam się, ta wielka trójka, czyli Google Amazon i Microsoft. Czym one różnią się od usług stawianych na takich środowiskach Data Center, powiedzmy tych Data Center uznanych, nawet to, które się spaliło. Chodzi o takie profesjonalne Data Center.
ŁW: Tutaj tak naprawdę trzeba rozdzielić pewne rzeczy dlatego, że czym innym jest hosting center, gdzie tak naprawdę albo mamy swoją infrastrukturę, albo wynajmujemy infrastrukturę, która jest bardzo często ograniczona fizycznie i to jest to najmniej skalowalne rozwiązanie, a czym innym są rozwiązania chmurowe Data Centrowe, gdzie my wykupujemy platformę jako usługę i w zależności od tego, jakie są nasze potrzeby wybieramy, że to będzie 5, 10, 20 procesorów. 1, 3 czy 8 tera danych. I bardzo często to jest coś, o czym wspominałem wcześniej, co jest przeskalowane albo niedoskalowane, kiedy mamy to fizycznie zamknięte. W przypadku rozwiązań elastycznych, gdzie mamy możliwość dynamicznej zmiany tych zasobów przydzielonych, tutaj mam na myśli m.in. operatorów, o których wspomniałeś, jest możliwość ustalenia jak mocno te zasoby mogą się rozrosnąć, jednocześnie trzeba pamiętać o jednej bardzo ważnej rzeczy – ze względów bezpieczeństwa nie powinno być to skalowane w nieskończoność. Jednak biznes i działy techniczne, IT powinny ustalać górną granicę, bo bardzo często zapominamy o tym, że za tą dynamiką im więcej zasobów, tym więcej płacimy. Im więcej płacimy, tym częstokroć mniej zarabiamy, bo bardzo często ten wzrost zapotrzebowania na zasoby nie wynika z normalnego funkcjonowania naszej firmy, tylko celowego albo przypadkowego działania osób trzecich.
Ale rozumiem, że to kwestia monitoringu. Bardziej mi chodzi o to, że z perspektywy czy to efektywności, czy bezpieczeństwa zakładam, że wszystko działa ok – czy jest jakaś taka istotna różnica, że ktoś nam oferuje usługę na Azure, czy na AWS, vs coś, co jest postawione na Beyondzie?
ŁZ: Ja może porównam to do rozwiązania czysto cloudowego na przykładzie Google. Taki storage w Google, który będzie zabezpieczony wieloregionalnie najwyższe SLA, które widzę, to cztery dziewiątki. To w sumie nawet 99,95% i to jest najwyższy poziom zabezpieczenia danych, który możemy uzyskać na chmurze. On będzie do tego stosunkowo drogi. My jesteśmy w stanie uzyskać, 99,9999% z punktu dostępności do danych lub nawet 100%, jeżeli wybierzemy produkt, który taką gwarancję posiada. Choćby z punktu widzenia dostępności takiego SLA jesteśmy w stanie zapewnić po prostu więcej.
Wy, czyli HPE jako centrum danych, tak?
ŁZ: HPE jako dostawca sprzętu w hosting center.
W hosting center możemy posadzić maszyny, ale tam tez jest kwestia dostępności prądu, łączy itd.
ŁW: To zależy od tego jakie są potrzeby, jakie są usługi sprzedawane. To jest jak porównywanie jabłka do jabłka. Jedno i drugie jest jabłkiem, natomiast jedno może być dobre do ciasta, a drugie będzie dobre tylko na sok. I tutaj też bardzo często naszym zadaniem jest doradzenie klientowi gdzie lepiej jest coś umieścić, żeby koszty były współmierne do efektów, jakie uzyska. Nie da się powiedzieć tak, jak z przełącznikiem. Nie każdy przełącznik wszędzie będzie pasował i będzie idealny do wszystkiego. Nie ma rzeczy uniwersalnych. Zawsze jest jakieś „ale”. Czy to jest chmura taka, czy inna, czy operator ataki, czy inny, hosting center takie, czy inne, czy on premise. Zawsze trzeba przeanalizować to za/przeciw, koszty versus zyski, jakie są możliwe do osiągnięcia. Ryzyko to jest jeszcze kolejna rzecz, która w każdym rozwiązaniu musi być założona z góry.
Płyniemy do brzegu, jedna rzecz od każdego z Was. Co byście chcieli przekazać słuchaczom z perspektywy transformacji cyfrowej, ale tak konkretnie bezpieczeństwa, czy stosowania tych rozwiązań, które macie na pokładzie. W tej relacji dostawca-producent-integrator-klient końcowy. Czy on będzie biznesowym klientem, czy przysłowiowym informatykiem.
ŁZ: Ja myślę, ze na pewno warto znaleźć wspólny język. To jest bardzo istotne, żeby biznes rozmawiał z IT i wspólnie szukali tego SLA, które jest realnie potrzebne, dogadywali się odnośnie realnych funkcjonalności, które są potrzebne odnośnie wszystkich aspektów tego środowiska i już kiedy to zapytanie pójdzie gdzieś tam w świat, żeby ono było rzeczywiście zbudowane na podstawie konsultacji ze wszystkimi interesariuszami, wszystkimi stronami, które są gdzieś zaangażowane w infrastrukturę, będą z niej korzystać, czy wdrażać.
ŁW: Firma powinna być po prostu zespołem grającym w piłkę do jednej bramki, których cel jest tylko i wyłącznie jeden – zdobyć tego gola i osiągnąć cele. Natomiast to, co już też było mówione wielokrotne druga rzecz – nie próbujmy oddzielać biznesu od IT, idźmy w stronę synergii, bo tak naprawdę tylko i wyłącznie wspólne działanie da nam sukces. I trzecia rzecz, jeśli naprawdę nie mamy rozwiązania, mamy problemy, nie bójmy się poszukiwać rozwiązań na zewnątrz. Jest wielu producentów, wielu integratorów. My jesteśmy jednym z nich, gdzie można przyjść, zapytać się, porozmawiać, przedstawić swoje trudności, problemy. Jak trzeba, jest NDA, które nakłada na nas obowiązek zachowania tajemnicy. Ja nie będę ściemniał, NDA nawet bez papieru u nas jest priorytetem, nigdy dane i informacje klienta nie wychodzą poza krąg niezbędny do realizacji czy analizy, czy projektu. Naprawdę warto korzystać, bo bardzo często jesteśmy w stanie nawet pokazać, że na obecnie istniejącej infrastrukturze niskim nakładem pracy i kosztów możemy zrealizować cele, na które zaplanowaliśmy się, że wydamy 1,5 miliona. Teraz mój prezes może mnie walić po głowie, bo tracimy kasę. Nie, naszym celem jest zadowolenie klienta i pomoc mu w rozwiązaniu jego trudności i problemu.
Panowie, to był prawdziwy rollercoaster. Od rzeczy zrozumiałych, przez niezrozumiałe po zupełne odkrycia. Dziękuję Wam za tę podróż. Drodzy podcastosłuchacze, jak mówi Arek. Naszymi gośćmi był Łukasz Włodarczyk z Innergo oraz Łukasz Zwierzchowski z HPE.