Bank powinien zbierać dane o kliencie z wielu źródeł

12.06.2016
Wyścig technologiczny powoduje, że banki muszą wprowadzać nowe rozwiązania jednocześnie w obszarach bezpieczeństwa, płatności, zbierania i analizie danych. Profilowanie oferty pod klienta powinno stac sie codziennością. To oznacza wzrost wydatków, ale też nowe dochody – uważa Adam Kępa, szef usług dla sektora finansowego w ITMAGINATION.

Adam Kępa (fot. Przemysław Plackowski)


ObserwatorFinansowy.pl: Banki są wielkie i ociężałe. Niezliczone firmy technologiczne (FinTech) odbierają im kolejne obszary działalności. Tak wygląda obraz sektora finansowego? 

Adam Kępa: Nie zgadzam się z takim obrazem. Sektor finansowy to nadal przede wszystkim banki. Choć rozwój technologii i FinTech jest błyskawiczny, banki mają nadal klientów i ciągle się rozwijają.

Dzięki czemu ich wciąż mają?

Bo mają ich zaufanie.

Pomimo kryzysu?

Nie mamy wątpliwości co do bezpieczeństwa gwarantowanego przez sektor bankowy i nie chodzi tu wyłącznie o depozyty. W płatnościach, gdzie technologie bardzo się rozwinęły, także decyduje zaufanie. Banki zbudowały już technologiczne platformy, mają produkty i usługi również dla płatności mobilnych. I znakomicie sobie na tym rynku radzą. Jak podają badania Initiative D21 – TNS Infratest zaufanie do banków jest prawie dwukrotnie wyższe niż do innych dostawców mobilnych usług płatniczych.

Co ciekawe, wydawcy kart kredytowych są jeszcze niżej w tym zestawieniu. Adaptacja nowych technologii trwa w bankach dłużej, ale skala oddziaływania wdrożonego, nowego rozwiązania w bankach jest już bardzo duża, i co więcej wzbudza zaufanie do nowych technologii wśród klientów.

Kopiują rozwiązania, które przed laty wymyślili inni?

Nie tylko. Właściciele dużych banków w Polsce to z reguły firmy zagraniczne i naturalne jest, że budują centra rozwijające oprogramowanie zaawansowane technologicznie, niekoniecznie w Polsce. To może być powodem postrzegania polskiego sektora bankowego, jako takiego, który w mniejszej skali reprezentuje podejście innowacyjne. Ale gdy popatrzymy, jak bardzo zmienił się ten sektor w ciągu ostatnich lat, to widać, że adaptacja technologii bardzo szybko postępuje.

Przykładem jest choćby BLIK – PKO BP jest jednym z liderów płatności mobilnych dzięki rozwiązaniom, które sam w Polsce stworzył. Są też banki, które mają własne centra technologiczne w Polsce, jak na przykład Alior Bank.

Jakie obszary, na których odbywa się wyścig technologiczny przesądzą o przyszłości banków? Płatności, bezpieczeństwo, Big Data, sztuczna inteligencja?

Wszystkie te elementy mają znaczenie. To jest koncepcja zintegrowanego cyfrowego środowiska banku: platforma omnikanałowa dla klienta banku, oparta o spersonalizowane dla niego dane, chmura obliczeniowa i bezpieczeństwo – to niezbędne elementy nowoczesnego banku. Po pierwsze, bezpieczeństwo – to oczywiste – banki nas do tego bardzo przyzwyczaiły.

Drugim elementem jest nowoczesna platforma zorientowana na klienta i omnikanałowa, która umożliwia łatwe przenoszenie się klienta pomiędzy różnymi kanałami i obsługę na różnych urządzeniach, nie ważne jakich.

Omnikanałowość oznacza, że bez względu na narzędzie kontaktu z bankiem obsługa powinna wyglądać identycznie, a bank korzysta w kontakcie z klientem z tych samych danych, dostarcza te same usługi i spersonalizowane produkty, dodatkowo dodając produkty partnerów.

Taka nowoczesna platforma jest bardzo istotna, ale po trzecie – najistotniejsze jest to, żeby bank właściwie przetwarzał dane klienta. Klient banku oczekuje danych uporządkowanych i dedykowanych do jego potrzeb. Banki muszę poradzić sobie z dużą ilością danych, a w wielu przypadkach będą to dane pochodzące spoza banku. Banki muszą zatem z jednej strony uporządkować te dane, a z drugiej również je zmonetyzować.

Czwarty filar nowoczesnego banku jest już czysto technologiczny i nie ma większego znaczenia dla klienta, ale dla banku i dla jego organizacji oraz strony kosztowej ma ogromne znaczenie. To wykorzystanie chmury obliczeniowej.

Jakie te wszystkie obszary mają znaczenie, czemu mają służyć?

Badania, które wykonała KPMG na rynku polskim pokazały, że  dla klientów najważniejsze są spersonalizowane usługi i produkty. Polega to na tym, żeby klient „wchodząc” do banku widział produkty dedykowane tylko dla niego, a nie wszystkie, takie same, dla wszystkich, jak w supermarkecie.

Klienci oczekują też intuicyjnego interfejsu i sposobów osiągania celu w jak najmniejszej liczbie kroków. Duże znaczenie ma też rzetelność udostępnianej informacji. Ma być sprawnie i szybko, a jeszcze ma to być dedykowane i bardzo rzetelnie przygotowane. Wynika z tego, że banki muszą dobrze zaprojektować interfejsy swoich usług, ale też muszą zadbać o dane.

Jakie dane?

Dane o kliencie, które bank już ma. Z badań Uniwersytetu w Oxfordzie wynika, że Big Data umożliwia poznanie preferencji klienta. Ale nie tylko dane bankowe są ważne. Konieczne jest, żeby bank zbierał dane również z innych źródeł, a więc z sektora ubezpieczeniowego, energetycznego, wymieniał dane z innymi usługodawcami, zbierał je internetu i z mediów społecznościowych, czy z instytucji rządowych, jak było to w przypadku programu 500+.

Po co?

Dzięki nim i w zamian za nie banki będą mogły dać klientom coś wartościowego. Korzyści w zamian za dane, które klienci sami udostępniają, i co więcej są do tego przyzwyczajeni. Propozycję, dzięki której klient może uzyskać pewność, że płaci właściwą cenę za właściwą usługę i we właściwym czasie, kiedy faktycznie tego potrzebuje. Na podstawie analizy produktów, jakie ma klient, tego jak często, i jak dużo płaci, bank może podpowiadać konkretne rozwiązania i działania, które ułatwią klientowi życie.

Skoro za tydzień klient jedzie np. do USA – co wiemy, bo kupił już bilet – zaproponujmy mu ubezpieczenie podróży. Powinna się także pojawić najlepsza następna oferta, profilowana dla konkretnego klienta. Bank widzi, że klient ma nadwyżkę gotówki i proponuje mu na przykład produkt inwestycyjny.

Zupełnie nową rzeczą, której jeszcze nie ma, byłyby aplikacje, które mogą być związane z pieniędzmi klienta, bądź ze sposobem ich zarabiania czy wydawania i te aplikacje były ściągane przez klienta banku i dostępne na jego pulpicie na stronie banku.

Bank powinien zadbać, żeby dostępne były różne aplikacje, w tym jego konkurentów, którzy na przykład oferują płatności, po prostu po to, żeby klientowi było łatwiej je realizować i żeby ich nie szukał na rynku, a kontaktował się z nimi poprzez bank, ponieważ bank jest instytucją finansową, któremu klienci ufają najbardziej.

Nie wierzę. To możliwe?

Taka zmiana podejścia jest konieczna, bo dyrektywa PSD2, która wchodzi w życie w 2018 roku przewiduje otwarcie API (interfejsu zapewniającego dostęp), umożliwiając wymianę danych. Banki będą otwierały się – poprzez udostępnienie swoich danych przez Open API – i instytucje niebankowe będą mogły z niego korzystać. PSD2 bardzo zmieni rynek. Banki  zdają sobie sprawę z tego i intensywnie pracują nad tym, jak tę sytuację wykorzystać.

Banki traktują te postanowienia raczej jako zagrożenie.

To nie musi być zagrożenie. Podobna technologia i podejście zostało wiele lat temu wykorzystana na przykład przez Allegro. Zbudowano  serwis do sprzedaży i udostępniono sprzedawcom API. Dzięki temu powstał system konkurujący z amerykańskimi gigantami.

Banki mogą wykorzystać open API, żeby zarabiać?

Zarabiać będą na większej liczbie transakcji dokonywanych elektronicznie. Bank otwierając się na innych uczestników rynku, zarabia na tym, że obraca środkami klientów. Im więcej będzie miał interakcji z zewnętrznymi dostawcami, tym więcej na tym zarobi. Na podobnej zasadzie działa rynek kart kredytowych, bo wystawca karty zarabia więcej, gdy ma więcej transakcji.

Co jeszcze daje analiza danych?

Konieczna jest predykcja danych zgromadzonych w systemach bankowych wskazujących na zachowania klienta. Metody analizy danych o zachowaniu klienta na podstawie tego, co zgromadzono we własnym systemie i tego, co klient udostępnia w sieci, już w tej chwili pozwalają, na przykład, na wyłonienie grupy potencjalnych klientów, którzy chcą wypowiedzieć umowę.

Można im zaproponować nową ofertę. Dane z różnych urządzeń są gromadzone w różnych miejscach i pozwalają pewne zachowania klientów przewidywać. To wszystko jest przyszłością usług bankowych.

Banki to już potrafią?

Do tej pory korzystały z hurtowni danych albo z systemów transakcyjnych, ale wykorzystywały je post factum. Kiedy skończył się miesiąc, okres sprawozdawczy, były przygotowywane raporty zarządcze MIS, dane związane z obsługą sprawozdawczości obowiązkowej. I te dane były analizowane.

Co zajmowało kolejny miesiąc…

A chodzi właśnie o to, żeby bank analizował te dane w czasie rzeczywistym i wykorzystywał zgromadzone dane do predykcji. Do tej pory nie było praktycznych rozwiązań, gdyż technologia była za droga i brakowało pomysłów, które umożliwiałyby zaawansowaną analitykę danych. Teraz już są.

Wszystko to po to, żeby zwiększyć sprzedaż kredytów?

Zwiększenie sprzedaży kredytów jest oczywiście możliwe i to jest jeden z konkretnych przykładów wykorzystania analityki danych. Gdy klient będzie miał bardziej spersonalizowaną ofertę, to jest parametry kredytu, takie jak wysokość, prowizję, oprocentowanie, liczbę rat, to może być bardziej skłonny kontynuować współpracę z bankiem niż szukać innej oferty na rynku.

Co na to prawo o ochronie danych osobowych?

W zespole Big Data przy Forum Technologii Bankowych planujemy zrealizować studium wykonalności takiego projektu, bardziej od strony organizacyjno-prawnej niż technologicznej, mające pokazać, jak można z takich danych nieustrukturyzowanych i dostępnych w sieci korzystać. Chodzi miedzy innymi o przećwiczenie, jak – w zgodzie z polskim prawem ­– wykorzystać media społecznościowe, takie jak LinkedIn czy Facebook. W USA takie dane już są wykorzystywane, a w Polsce jeszcze nie. Ograniczenia prawne są, ale to nie znaczy, że nie można znaleźć rozwiązań, które wykorzystanie tych danych umożliwią.

Czy Big Data może się przydać do zarządzania ryzykiem?

Są już modele opierające się na danych zgromadzonych w Internecie i w banku, pozwalające budować scoring klienta. Dane ze scoringu w połączeniu z danymi z Internetu są dużo bardziej wiarygodne i pewne niż dane, które posiada wyłącznie bank. Dzięki Big Data silniki scoringowe są bardziej precyzyjne, gdyż będzie zmniejszało się ryzyko trafienia na osobę, która kredytu nie powinna otrzymać.

Dane można analizować pod kątem klienta, produktu, kanału dostępu, segmentu klientów, czyli w kategoriach czysto biznesowych i marketingowych, ale również w kategoriach operacyjnych, pod kątem ryzyka. Można zbierać dane do analiz antyfraudowych, o groźnych zachowaniach klientów i wymieniać je pomiędzy bankami. Można sobie wyobrazić rozwiązanie organizacyjne i formalno-prawne, że banki będą wymieniać informacje o podejrzeniach fraudów w czasie rzeczywistym.

Analiza ryzyka operacyjnego i kredytowego oparta na danych uporządkowanych i danych nieustrukturyzowanych może poprawić wskaźniki ryzyka, a to może przynieść konkretne oszczędności, bo bank może udowodnić dzięki takiej analizie, że nie musi tworzyć tak dużej rezerwy na ryzyko operacyjne. Zgodnie z prognozą Gartnera dzięki analityce danych zmodernizowanych zostanie 80 proc. procesów biznesowych do 2020 roku.

Z drugiej strony przetwarzanie takich ilości danych to wielkie koszty. Czy banki są gotowe, żeby je ponieść?

W tej chwili wydatki na Big Data są na poziomie 25 proc. wydatków banków na technologie, przez najbliższe trzy lata wzrosną do 30 proc. To niemało. Big Data wymaga inwestycji ze strony banku, tym bardziej, że technologie umożliwiają już przetwarzanie danych nieustrukturyzowanych.

Czyli?

Dane ustrukturyzowane ujęte są w relacyjne bazy danych, gdzie jest tabela, ma ona swoje nagłówki, nazwy rekordów. Nieustrukturyzowane to takie, które dopiero trzeba podpiąć pod zbiór, który danego klienta dotyczy. I właśnie z danych nieustrukturyzowanych można wydobyć wiedzę o tym, jak klient się zachowuje, i co więcej uwiarygodnić wiedzę o kliencie.

Dzięki predykcji tych danych bank może spodziewać się, co klient będzie robił, i oferować mu spersonalizowane usługi, proponować kolejne działania w serwisie banku, ułatwiające życie, a także prezentować dedykowane oferty. I tu pojawia się zasadnicze pytanie, czy dane te przetwarzać u siebie, czy może skorzystać z chmury.

No właśnie, tym bardziej, że danych wciąż w ogromnym tempie przybywa. Trzeba się spieszyć?

Dane nie znikną, są już na serwerach. Nie można też postawić tezy, że z nich nie skorzystamy. Oczywiście dane mogą stawać się przestarzałe. Przetwarzanie dużej ilości danych ma kilka istotnych aspektów. Po pierwsze, jest kosztowne. Cześć danych zgromadzona jest w banku i jest tam przetwarzana, co dla niego stanowi konkretny koszt.

Można sobie wyobrazić, że bank ma mechanizmy, żeby zadawać zapytania online do serwisów na zewnątrz. Wtedy nie musi danych gromadzić. Danych będzie przybywało. Będą ich dostarczać użytkownicy Facebooka, ogromnej ilości danych dostarczy także internet rzeczy. Pewnie będzie również tak, że ktoś będzie tymi danymi handlował. Równocześnie przetwarzanie w chmurze dużej ilości danych jest już możliwe.

I jest bezpieczne?

Bardzo trudno jest włamać się do serwerowi Microsoftu, czy Amazona, gdyż są tak zabezpieczone, że koszty włamania byłyby gigantyczne. Dużym instytucjom finansowym jest już bardzo trudno konkurować – jeśli chodzi o poziom bezpieczeństwa – z dostawcami usług w chmurze, a środki na utrzymanie rozwiązań, na takim poziomie bezpieczeństwa, są ogromne.

Banki wydają już bardzo dużo pieniędzy na bezpieczeństwo i przyjdzie taki moment, że będą musiały się zdecydować, czy dane przetwarzać u siebie, czy w chmurze.

U nas przeniesieniu banku do chmury sprzeciwia się Komisja Nadzoru Finansowego, obawiając się, że jeśli bank outsoursuje przetwarzanie danych i bezpieczeństwo, stanie się wydmuszką.

Technologia wyprzedza prawo i prawo trzeba do nowej technologii dostosowywać, oczywiście za zgoda i we współpracy z organami nadzoru. Banki muszą przekonać KNF, że serwery wielkich dostawców usług chmurowych na terenie Unii są bezpieczne, i że to jest w zgodzie z dyrektywami unijnymi.

Fabrykant Karol Scheibler zbudował w Łodzi elektrownię, bo nie miał gdzie kupić prądu. Ale dziś nikt nie buduje elektrowni, żeby zasilić serwerownię. Niedługo nikt nie będzie budował własnych serwerowi, tak jak nikt nie buduje własnych elektrowni.

Ile mogą zaoszczędzić banki na przetwarzaniu danych w chmurze?

Usługę trzeba dostosować do konkretnych potrzeb banku i policzyć wymaganą moc obliczeniową i zasoby w chmurze, a na tej podstawie cenę. Mogę podać przykład, że archiwizacja w chmurze 70 terabajtów danych historycznych kosztuje około 3 tys. euro miesięcznie, a bank musi mieć u siebie jedynie komputery w przeglądarką WWW, aby do tych danych sięgać. To są wszystkie koszty archiwizacji 70 TB danych.

Jakie jeszcze korzyści daje przeniesienie danych do chmury?

Bank skupia się wtedy na swojej działalności. Korzyści nie kończą się na oszczędnościach na utrzymaniu infrastruktury. Pracownicy, którzy zajmują się relacjami biznes-IT nie muszą już się obawiać, czy w krótkim czasie uda im się wprowadzić jakąś zmianę, czy nie zabraknie mocy obliczeniowych, czy miejsca na serwerach.

Bank uzyskuje łatwość skalowania, bo gdy danych przybywa szybciej niż planował, nie musi kupować wielkiej macierzy za kilkaset tys. dolarów. Po prostu aplikacja w chmurze pokazuje, że może zwiększyć pojemność np. z 20 do 25 terabajtów i od razu wie, ile to kosztuje, co więcej może to zamówić na jakiś czas, a potem z tego zrezygnować.

Może sterować własną mocą obliczeniową, na przykład w nocy wykorzystać więcej procesorów i wykupić większą moc, a w dzień korzystać z mniejszej mocy. Gdy z miesiąca na miesiąc przybywa klientów, to również można skalować. Wszystko to ułatwi prowadzenie biznesu.

Rozmawiał Jacek Ramotowski

 


Tagi


Dodaj komentarz


− siedem = 0

Popularne artykuły

Related Posts


Artykuły powiązane