Мобильное приложение журнала
Google Play Apple Store
курс цб на 19.10: USD 63.9542 EUR 71.1299
криптовалют: BTC 7956.3$ ETH 173.02$
lupa
1153 просмотра

Big Data в банкинге. Мифы и реальность

Big Data в банкинге. Мифы и реальность

О ключевых этапах развития рынка технологий использования Big Data, связанных с ними мифах и реальных ожиданиях читателям журнала «ПЛАС» рассказывает Петр Борисов, руководитель направления Big Data компании DIS Group.

Одной из ключевых задач для любого бизнеса является борьба за клиента. И банковский сектор здесь не исключение. Сегодня для того, чтобы клиенту перейти из одного банка в другой, уже требуется минимум усилий. Рынок становится все более конкурентным в силу того, что качество услуг и их подача усредняются. В таких условиях выигрывает тот, кто работает с клиентом на другом уровне: может «угадывать» его потребности и отвечать им. Необходимо максимально эффективно использовать имеющуюся у компании информацию о клиентах и их поведении, огромные объемы которой и дали ей название Big Data. Банкам сегодня уже мало просто знать, сколько денег у клиента на расчетном счету и какими услугами он пользуется – важно понимать, как клиент мыслит, почему он пришел именно в этот банк, какую ценность он находит для себя в услугах, в какой момент та или иная услуга ему нужна, а в какой – нет.

Петр Борисов, руководитель направления Big Data компании DIS Group
Петр Борисов,
руководитель направления Big Data компании DIS Group

Еще один ключ к успеху – умение строить с клиентом персонифицированные отношения. Если банк относится к клиенту как к одному из миллионов и работает лишь по его портрету, то клиент будет относиться к банку так же. Поэтому очень важно работать не только с внутренней, но и с внешней информацией: как клиент ведет себя за рамками банковских систем, какие потребности у него возникают и пр. Тот, кто научится максимально быстро агрегировать и обрабатывать такую информацию, будет выигрывать у конкурентов с большим отрывом.

Привлечение, обслуживание, удержание клиентов, кросс-продажи, стратегический маркетинг, безопасность – все эти направления так или иначе могут опираться на Big Data, на новые технологии, извлекая для себя инсайты и конкретную пользу для бизнеса.

Многие компании в России сегодня тянутся к инновациям и с огромным интересом тестируют, в том числе, технологии работы с Big Data. Но стоит отметить, что инициатива в этом направлении чаще исходит из Европы и США.

Причин тому много. В первую очередь – несоизмеримые размеры рынков. А, как известно, технологии появляются там, где для них есть рынок сбыта. В отличие от крупных международных структур стартапы могут очень быстро тестировать и выводить новые идеи на рынок. Таким образом, они заставляют шевелиться рынок, вынуждают традиционных лидеров – гигантов индустрии либо самостоятельно развивать технологии, создавая акселераторы, либо покупать эти самые стартапы. В конечном итоге венчурный капитал двигает весь рынок.

41Структурно рынок решений в области Big Data можно разделить на сегмент Open Source и сегмент проприетарных игроков, которые традиционно строят свои решения на собственных платформах уже в течение продолжительного времени. В настоящее время в сфере Big Data наблюдается тенденция, когда многие компании предпочитают идти по пути Open Source, который позволяет им легче стартовать, так как предполагает минимальные вложения. Но при этом таким компаниям требуется наращивать более глубокую экспертизу. Open Source – это одновременно и очень быстрое, но и несколько хаотичное развитие, поскольку продуктом занимается большая команда, планы которой не всегда согласованы. Для заказчиков такой вариант не всегда удобен.

Большинство банков по этой причине выбирает промышленные проприетарные решения, поскольку для корпоративного мира, для которого кейсы с Big Data становятся business critical, критичное значение имеют устойчивое развитие и промышленная поддержка. И поэтому здесь сильные позиции занимают проприетарные игроки, такие, как, например, Informatica, которые вкладывают огромное количество средств и ресурсов в устойчивое развитие в конкретных направлениях и обеспечивают промышленную поддержку, скорость разработки и строгое соблюдение четкой road map. Иными словами, они гарантируют заказчику уверенность в завтрашнем дне. Очень часто многие компании начинают с Open Source, но когда понимают, как именно с помощью Big Data можно реально зарабатывать деньги, обращаются к промышленным решениям. Это происходит прежде всего в силу того, что при попытке перевести тот или иной продукт в промышленную эксплуатацию команда Open Source не готова взять его на поддержку.

Для банка важно работать не только с внутренней, но и с внешней информацией

При этом сами вендоры прекрасно понимают, что Open Source очень активно развивается и весьма полезен. И, как правило, в свои проприетарные решения они встраивают все самое полезное из мира Open Source. Это касается практически всех крупных вендоров, которые сегодня имеют какую-то синергию с Open Source.

В разрезе функциональности можно говорить про хранение и обработку данных, дата-менеджмент, анализ потоковых данных, датамайнинг, статистические и визуальные средства. Но очень часто из внимания бизнес-структур выпадает один важный момент. Первое, о чем они думают – у них появляется много дополнительных источников информации, и их нужно где-то хранить и обрабатывать. Поэтому они сразу обращают внимание на такие решения, как Hadoop, NoSQL и т. д., которые позволяют удешевить это процессы.

Второе, на что компании обращают внимание, – уже некая аналитика, точнее, визуальная ее часть, которая находится на вершине айсберга и поэтому легко демонстрируется топ-менеджерам. То, что часто бывает незаслуженно обделено вниманием, – это решения, которые стоят «посередине», решения класса дата-менеджмент, от результативности и эффективности которых зависит успех всего предприятия. Какой бы хорошей система аналитики у вас ни была, если на вход вы даете ей данные ненадлежащего качества (отсутствуют адреса клиентов, показатели друг с другом не бьются, дублируются данные и пр.), на выходе вы гарантированно получаете некачественное решение, принятое в результате этого анализа. Поэтому здесь очень важно не забывать про дата-менеджмент, который закрывает большой блок ключевых решений, начиная от сбора и интеграции данных и заканчивая качеством данных, управлением мастер-данными, жизненным циклом данных, их безопасностью и т. д.

Мифы и подводные камни

Очень часто на деловых встречах приходится сталкиваться со следующим мифом: «если мы возьмем решение для Big Data и начнем им заниматься, как другие банки или телекомы, доходы потекут рекой, и все будет прекрасно». На самом деле внедрение такого решения – только начало. Тот факт, что вы начали заниматься Big Data, сам по себе еще не гарантирует вам увеличения прибыли. На данном этапе Big Data дает лишь возможность тестировать и проверять свои гипотезы и каким-то образом извлекать из них прибыль. Причем только одна из десяти таких историй в лучшем случае принесет деньги.

42Для того чтобы добиться успеха, компании или банку нужно уметь очень быстро генерировать идеи и проверять их. Если такой конвейер не будет создан, а заказчик просто устанавливает у себя решение класса Big Data и не очень понимает, как его использовать, то, как правило, это неуспешный проект, который не приносит денег, а, наоборот, расходует средства (новые специалисты, новая экспертиза, новые серверы, новые технологии, новая поддержка и т. д.).

Все успешные кейсы, которые можно сегодня увидеть на рынке, строились именно по принципу такого конвейера, когда компания понимала, чего именно она ждет от клиентских данных. При этом важно осознавать, что универсального средства для успеха не существует. Нельзя взять успешно реализованные кейсы одной компании и просто перенести их в другую. Это  постоянный творческий поиск, «подкручивание», изменение, переоценка.

Cегодня практически в каждом банке есть свой CDO, появляются департаменты, назначаются data scientists

Другой миф заключается в том, что извлекать конкурентное преимущество из анализа Big Data можно, работая с информацией по старинке, на уровне байтов в строчках данных. В реальности здесь необходимо научиться работать на уровне информационных активов, в рамках Data Governance – настоящей отдельной большой науки.

В России тренд на Data Governance только зарождается. Сегодня практически в каждом банке есть свой CDO, появляются департаменты, назначаются data scientists. Однако на эту функцию смотрят как на ИТ.

И еще один момент, на который стоит обратить особое внимание. Ситуация, когда возникает некая диспропорция между специалистами в компании, которые способны сгенерировать идею, поставить задачу и знают, что нужно делать с данными (специалисты маркетинга, безопасности, рисков и т. д.), и теми сотрудниками, которые обеспечивают их этими данными (узкие ИТ-специалисты, отдельно выделенные кадры, которые знают, где взять информацию и как передать ее в нужном виде). Как правило, первых в десятки-сотни раз больше, чем вторых. Возникает некое «бутылочное горлышко», потому что ИТ-специалисты просто не справляются с объемом запросов. А маркетолог, который придумал новую идею и знает, как зацепить новый пласт клиентов, вместо того чтобы проверить ее, ждет неделями нужную информацию. Как результат, либо идея погибает, потому что она становится неактуальной, либо ее просто приходится бросить, потому что маркетологу нужно делать свою повседневную работу дальше.

Для того чтобы добиться успеха, компании или банку нужно уметь очень быстро генерировать идеи и проверять их

Для решения этой проблемы необходимы инструменты класса self service, когда существенно более широкая группа специалистов могла бы в самостоятельном режиме получать необходимую информацию. Понимая при этом, что это именно та информация, которая нужна, проверяя свою гипотезу и делая свою работу в рамках каких-то построенных правил. Для этого необходима система, которая позволяет ИТ-специалистам одновременно предоставить self service и контролировать его с точки зрения безопасности и невмешательства в критические бизнес-процессы информационных систем. Ведь если 500 пользователей начнут извлекать информацию, то АБС банка будет заниматься не обслуживанием клиентов, а обслуживанием этих аналитиков. Естественно, это приведет к ухудшению сервиса, что недопустимо.

Ожидания от развития Big Data

Сегодня очень много говорят про новые средства аналитики – как красиво и быстро все будет подсчитываться и анализироваться. А еще совсем недавно ни одна конференция по Big Data не обходилась без такого острого вопроса, как наличие data scientist. Поднимались целые научные дискуссии по поводу того, что это за специалист и как он вообще выглядит. Всем было понятно, что это очень дорогой и редкий специалист. На сегодняшний день практически у всех заказчиков, с которыми мы работаем, такая позиция есть. Но это по-прежнему люди очень редкие и дорогие. Именно они как раз и являются тем самым бутылочным горлышком.

43Миссия технологических компаний, таких как Informatica и других крупных вендоров, как раз и заключается в том, чтобы спрятать всю эту сложную инженерию «под капот» и дать более широкому кругу специалистов интуитивно понятные простые инструменты, для работы с которыми не нужно будет долго учиться. Благодаря этому широкое количество сотрудников могло бы решать те же задачи, что ранее были доступны только редким суперпрофессионалам.

Возьмем, например, data scientist, который только пришел работать в банк. Конечно, он знает, как посчитать ту или иную модель. Но как заработать деньги, он знает вовсе не лучше, чем специалист, который занимается маркетингом в этой компании 15 лет. Так как именно этот человек обладает экспертизой, находится на острие проблемы, каждый день видит клиента и результаты работы. Он чувствует, где есть улучшение, где появляется реальная возможность заработать деньги. Поэтому таким специалистам нужно дать простые инструменты, которые будут решать сложные задачи. И тогда вырастет вся индустрия. Исчезнет дефицит в data scientist, и мы сможем на себе ощутить результаты этой работы. В Informatica есть класс инструментов, который называется Intelligent Data Lake, где вся работа дата-пользователя ведется в браузере через очень простой интерфейс. Специалист даже не подозревает, что «под капотом» встроено огромное количество сложных технологий, которые, реагируя на его запросы, делают сложную механическую работу. Он может быстро получить в нужный момент данные, проверить свою логику и сделать свою работу. В этом ценность и огромная перспективность таких решений.

Читайте в этом номере:


Перейти к началу страницы

Подпишитесь на новости индустрии

Нажимая на кнопку "подписаться", вы соглашаетесь с


политикой обработки персональных данных