Мобильное приложение журнала
Google Play Apple Store
курс цб на 19.10: USD 63.9542 EUR 71.1299
криптовалют: BTC 7956.3$ ETH 173.02$
lupa
1014 просмотров

Teradata: экспертиза Big Data должна находиться внутри банка

Teradata: экспертиза Big Data должна находиться внутри банка

О роли и значении технологий работы с Big Data, наиболее перспективных направлениях использования Больших данных в банкинге, модернизации архитектуры данных, а также о будущем использования Machine Learning и Artificial Intelligence журнал «ПЛАС» беседует с Андреем Алексеенко, генеральным директором компании Teradata.

ПЛАС: Ваша оценка ситуации на мировом и российском рынке Big Data. Какова его структура, кого можно назвать основными игроками? Насколько высок современный уровень конкуренции?

А. Алексеенко: Технологии использования Big Data сегодня получили широкое распространение во многих отраслях бизнеса. Если еще совсем недавно этот рынок был небольшой красивой нишей, то за последние несколько лет он стал мейнстримом. О Big Data сегодня говорят все, руководитель любой компании хочет обладать большим объемом данных и научиться умело им управлять. И такую картину можно наблюдать не только в России, но и во всем мире. Это настоящий клондайк для компаний, которые занимаются разработкой и поставкой аппаратно-программных комплексов для обработки и анализа данных. В одночасье мы оказались в фокусе внимания всего мира.

Сейчас Big Data занимаются все, начиная от консультантов «Большой четверки» международных аудиторских компаний и заканчивая структурами, которые раньше занимались исключительно «железом». Многие переквалифицировались из ИТ-специалистов в data scientist или data-инженеров. В какой-то степени это создает даже определенную неразбериху. Любому бизнесмену, который решил реализовывать проект Big Data, трудно сразу сориентироваться и разобраться. Ему тяжело понять, что эффективно, а что нет. Из-за этого совершается очень много фальстартов, ошибок и т. д. в данном направлении.

На этом фоне создание программной платформы Hadoop – технологическая революция, связанная с возможностью бесплатно собирать и хранить данные. Но хранить данные – это одно, а использовать – совсем другое. Эти понятия зачастую подменяются. Конечно, можно построить большое бесплатное «озеро» или «болото» данных и загрузить в него все что угодно. Но этого недостаточно. Важно иметь ответы на целый ряд вопросов. Какие задачи необходимо решать? Какие данные нужны? Что с ними делать? Как часто это нужно? Нередко эти вопросы остаются за рамками бизнеса, в результате случаются фальстарты, когда бизнес делает достаточно большие инвестиции в так называемые бесплатные технологии. Но даже если тебе подарили бесплатно щенка, им все равно нужно заниматься, кормить, заботиться и обучать, если вы намерены превратить его в достойную собаку. И нынешняя ситуация лишний раз напоминает об этом.

Работая с клиентами, мы отмечаем, что постепенно к руководителям приходит понимание того, что использование Big Data нельзя реализовать только на бумаге или просто создав инфраструктуру. В первую очередь необходимо задумываться над тем, как это делать, как будет выглядеть экосистема данных. И наша роль – одна из самых важных. Поскольку мы можем рассказать, из каких блоков состоит такая экосистема, как ее необходимо строить, как хранить, обрабатывать и использовать данные, применять различные технологии, в том числе с открытым исходным кодом. Очень позитивно, что такая зрелость наступает, и руководители крупных компаний начинают понимать, что с наскока этого не сделаешь, То есть нельзя просто нанять сто программистов и дать им в руки «игрушку». Максимум, что они сделают, – напишут за год сто человеко-лет программного кода, качественного, умного кода, который никому не нужен.

Если резюмировать, то большой разницы между тем, что происходит в России и за рубежом, практически нет. Да, можно сказать, что США немногим более продвинулись с точки зрения использования новых технологий, но само по себе это не так существенно.

58

ПЛАС: Несколько слов о ключевых этапах развития Big Data. Каким образом происходит модернизация архитектуры данных?

А. Алексеенко: Что представляло собой явление Big Data, когда оно еще не называлось Big Data? Раньше была бумажная отчетность – бизнес собирал данные, для того чтобы делать управленческие, обязательные и другие отчеты.

Следующий шаг – не просто отчет, а уже аналитика данных, чтобы на ее основе понять, что с этим массивом информации делать.

О Big Data сегодня говорят все, руководитель любой компании хочет обладать большим объемом данных

На нынешнем этапе, когда данные стали большими, во-первых, ко всем пришло осознание, что данных много и они везде, во-вторых, произошло изменение парадигмы, когда из общего объема данных необходимо определять действительно полезные данные. На это необходимо тратить определенные усилия, прикладывать определенные инструменты, аналитику. В связи с этим появились совершенно новые механизмы – исследовательские проекты – проекты data science. В рамках недавнего Teradata Forum нефтехимическая компания «Сибур» приводила пример, когда на одном из ее заводов происходили обрывы пленок, из-за этого брака компания несла чистую потерю денег. Необходимо было проверить ряд гипотез и ответить на вопросы. Что вообще происходит? Какую информацию дают датчики с оборудования? Какие есть показатели по сырью? Из чего произведено само сырье? И в итоге проанализировать, а есть ли вообще зависимость разрушения пленки от каких-либо исходных данных.

Причем если раньше строились исключительно статистические модели, то сейчас уже применяют новые методы – нейронные сети и т. д. Появился целый класс проектов, когда проводится исследование, причем конечный результат необязательно доказывает изначальную гипотезу. Такие проекты очень интересны. Потому что, когда появилось очень много данных, стало важным понимать, какие из них полезны и что они могут принести для бизнеса. Готовые решения сегодня есть только для одного класса. Для новых данных, новых задач подход немного другой.

60

ПЛАС: Для решения каких задач банковского сектора сегодня в реальности наиболее востребованы и применяются технологии Big Data? Каковы наиболее перспективные направления использования Big Data в банкинге?

А. Алексеенко: На самом деле банки очень продвинуты в работе с данными по всему спектру задач, начиная от клиентской аналитики, понимания того, кто твой клиент, что он делает, как банк с ним коммуницирует, какие у него потребности. Как следствие, это позволяет реализовать лучший клиентский опыт, лучшее предложение и т. д. Эта задача, на мой взгляд, не умрет никогда, потому что мы движемся в сторону еще лучшего понимания потребителя. Причем если раньше потребитель прощал, например, спам, то сейчас никто это прощать уже не будет. Сейчас это не вопрос какой-либо рекламы или предложений, это вопрос клиентского опыта. Клиент ожидает, что банк должен знать про него в каких-то вопросах больше, чем он сам. Без данных этого достичь невозможно.

Опыт наших клиентов показывает, что роль CDO должна быть вне ИТ-подразделения

Второе – это финансовые вопросы: понимание затрат, прибыльности, Lifetime Value (LTV) для клиента, сегментов, продуктов и т. д., а также связанные с этими задачами риски. И это только достаточно крупные блоки. На самом же деле крупнейшие внедрения охватывают весь банк, начиная от хозяйственной деятельности и заканчивая фронт-офисом.

61ПЛАС: Сегодня Big Data используют в основном крупные банки или уже это свойственно всем игрокам банковского сектора?

А. Алексеенко: Вы знаете, в этом плане я достаточно пессимистичен. Я в принципе не очень верю в выживание мелких игроков. Раньше ты мог быть региональным банком и иметь абсолютное понимание, кто твои клиенты, быть для них абсолютно доверенным партнером даже не за счет имеющихся данных (хотя, может быть, и благодаря им), а потому что ты просто ближе и лучше знаешь клиента. Сегодня работа с данными и цифровизация эти границы стирает. Банку федерального уровня реально стать лучшим локальным банком, потому что он будет знать о своих клиентах больше, чем любой локальный банк, который отстает во внедрении технологий.

Применять Big Data, конечно же, можно и в локальном банке, но, мне кажется, конкурентные преимущества у крупной компании существенно больше – просто за счет масштаба и глубины аналитики, которую она может делать. Именно поэтому мы преимущественно и работаем с крупными компаниями.

ПЛАС: Основной проблемой продолжает оставаться понимание у бизнеса внедрения технологии и конкретных целей, для которых это делается. Какова политика Teradata в этом вопросе?

А. Алексеенко: Это принципиальный вопрос. Я стараюсь избегать вообще каких-то длительных бесед, если у потенциального заказчика нет четкого понимания, зачем ему все это нужно.

Крупнейшие внедрения охватывают весь банк, начиная от хозяйственной деятельности и заканчивая фронт-офисом

Существует несколько подходов для поиска выхода из подобных ситуаций. Если это касается зрелых с точки зрения аналитики отраслей, тех же банков, то мы предлагаем совместный анализ. Наши наработки, по сути большие матрицы, показывают, где банк мог бы заработать или сэкономить на аналитике, где имеется бизнес-ценность. Условно говоря, мы готовим структурированный список, с пониманием, какие нужны данные, и какая отдача от них может быть получена. Обычно для руководства компаний мы проводим семинар, на котором в рамках обсуждения рождаются некие идеи, исходя из нашей экспертизы моделей, стратегии банка и приоритетов с точки зрения текущих задач и показателей. И после этого мы можем сказать, что у нас есть некий набор инициатив, в который все верят, т. е. мы как Teradata и вы как банк. Мы понимаем, что это действительно нужно для рынка сейчас и может стать неким первым шагом на пути к Data Driven Organization.

В некоторых случаях мы делаем полноценный исследовательский проект. Если клиенты просят нас выстроить для них стратегию или дорожную карту по аналитике, мы реализуем соответствующий проект и по его результатам подготавливаем документ с описанием шагов реализации, бенифитов и затрат. Впоследствии некоторые компании берут его за основу и реализуют его самостоятельно.

В новых отраслях ситуация иная. Никто пока еще не знает, где находится ценность. Тогда лучше идти исследовательскими проектами через гипотезы, о чем я говорил выше.

ПЛАС: Место и роль Data Governence. Насколько остро сегодня стоит проблема нехватки кадров data scientist? За счет чего она решается?

А. Алексеенко: Без качественного управления данными сегодня никак не обойтись. Data Governance – это основа, состоящая из нескольких разных дисциплин, за которой стоит четкая методология. Нет необходимости с первого же дня нанимать большое количество специалистов и создавать какие-либо отделы. Есть области управления метаданными, безопасностью, мастерданными, ряд других пунктов, которые необходимо реализовать на каждом уровне зрелости. Без этого ничего не взлетит, если ты хочешь по-настоящему сориентировать организацию на работу с данными или цифровизовать бизнес.

Это может быть либо полномасштабная организация, затрагивающая всю компанию изнутри, либо некая небольшая виртуальная команда, связанная какими-то небольшими процессами, которые могут даже не быть выделены. Главное, что с самого начала области, входящие в Data Governance, должны быть покрыты, пусть даже какими-то наколеночными шагами. Впоследствии они будут эволюционировать. Это абсолютно важно, как и обязательно наличие позиции CDO.

Проблема data scientist не решена окончательно. Отрасль растет очень быстро, и кадров по-прежнему не хватает. Но сегодня уже есть понимание, из чего их можно «приготовить». Например, к нам часть специалистов приходит из науки, еще часть – отраслевые эксперты. Здесь обязательно должно быть, во-первых, понимание роли данных, во-вторых, инструменты и модели для работы и, наконец, в-третьих, креативность. Последнее – сложно масштабируемое направление. Data scientist – это та роль, где требуется креативность. Эти специалисты используются в проектах, где результат изначально непонятен. Они должны исследовать, смотреть на вещи с разных сторон, у них нет заготовок, именно поэтому креативность очень важна. Кстати, стоит отметить, что в нашей стране в этом отношении намного лучше, чем в любой другой, просто за счет такой культурной особенности образованной части общества.

Опыт наших клиентов показывает, что роль CDO должна быть вне ИТ-подразделения. Хотя есть достаточно успешные примеры, когда это находится внутри ИТ. Но все же я считаю, что правильный вариант – это когда CDO находится как минимум под руководством члена правления банка, имея прямое подчинение.

62

ПЛАС: Что предпочтительнее для компаний – проприетарные или локальные решения для работы с данными, как вы оцениваете в этом плане аутсорсинг?

А. Алексеенко: Я бы немного перефразировал вопрос – оптимальны ли решения под ключ или экспертиза внутри банка? Ответ, который я абсолютно поддерживаю – нужна экспертиза внутри банка. На сегодняшний день ни одна организация не может себе позволить полностью отдавать все на аутсорсинг по этому направлению. Экспертиза, работа с данными, монетизация данных – все должно быть внутри. И в этом смысле проприетарные ли используются решения, с открытым исходным кодом или нет, в принципе не имеет значения.

CDO как минимум должен находиться под руководством члена правления банка, имея прямое подчинение

Взять, например, решение Teradata хранилище данных. Можно ли сказать, что оно закрытое? Нет. Это открытая база. Пожалуйста, делай на ней все что хочешь. Она открытая и позволяет всем подключаться. Да, ее исходный код закрыт, но это вовсе не означает, что все решения, которые на ней сделаны, закрыты. Скорее наоборот.

Более того, мы всячески помогаем нашим клиентам, проводим обучение, для того чтобы они внутри своей структуры создавали команды, которые знают и дальше развивают технологии (хранилище, аналитику и т. д.). На каком-то этапе мы делаем проект. После его реализации проект передается нами команде внутри компании, которая и будет развивать его дальше. Это процесс, который необходимо постоянно совершенствовать с точки зрения бизнес-результата, ведь ситуация на рынке постоянно меняется, часто появляются какие-то новые идеи, и их все время необходимо докручивать. И это правильнее делать изнутри.

ПЛАС: Расскажите о наиболее успешных кейсах с применением данной технологии в розничной финансовой индустрии. Насколько использование этой технологии повышает конкурентоспособность банков в цифровом мире?

А. Алексеенко: Есть прекрасный кейс ВТБ24. Подводя итоги внедрения наших решений в свою инфраструктуру, представители банка назвали конкретные цифры: в 2016 году ВТБ24 заработал на внедрении стратегии больших данных 19 млрд рублей. Впечатляющая цифра! Я лично не ожидал такого эффекта и дополнительно уточнял цифры. Это оценка финансового департамента ВТБ. В основном они зарабатывают как раз за счет лучшего понимания клиента, лучшего управления рисками, лучшего управления финансами. Вот три основных крупных блока.

ПЛАС: Ваши ожидания по дальнейшему развитию Big Data?

А. Алексеенко: Надеюсь, что рынок все-таки как-то структурируется и у него появится какая-то зрелость. Если ты не знаешь, что делать с данными – лучше вначале провести исследовательский проект. Если компания хочет делать что-то большое, необходимо понять, зачем ей это нужно, какой бенефит это даст для бизнеса, чего она хочет достигнуть и какова целевая архитектура. Хотя бы такими крупными мазками – для того чтобы просто не ошибиться при принятии решений. Надеюсь, что это будет постепенно выстраиваться.

62_2

ПЛАС: Машинное обучение и искусственный интеллект – следующая после Big Data волна. Как вы смотрите на перспективу использования данных технологий?

А. Алексеенко: Данные технологии уже активно применяются. И в будущем имеют все предпосылки, чтобы заменить традиционные инструменты. Возьмем, например, проект по противодействию мошенничеству Danske Bank с использованием нейронных сетей и смежных технологий. Он нацелен на то, чтобы быстро и эффективно отслеживать и выявлять подозрительные транзакции. При существующем сегодня подходе, несмотря на то, что это в принципе нормально работает, не все подозрительные транзакции можно обнаружить, и зачастую даже «чистые» транзакции могут маркироваться как подозрительные. И то, и другое является проблемой. С одной стороны, ты отпускаешь мошенников, а с другой – порой попусту нервируешь честных клиентов. Многие, наверное, были в ситуации, когда банковскую карту блокировали по их же транзакции, особенно в другой стране. Банку показалось это подозрительным, а у клиента сдают нервы. Недовольный потребитель – это плохо.
Поэтому в проекте с Danske Bank мы решили использовать нейронную сеть, которая самообучалась на основе имеющихся данных. Как результат, и тот, и другой показатель улучшились в разы. Таким образом, использование нейронных сетей снижает риски и не нарушает клиентский опыт.

Мне кажется, что это только начало. Данные технологии можно будет использовать практически в любой задаче. Уверен, что лет через пять в крупнейших кредитных организациях будет все устроено по-новому.

Читайте в этом номере:


Перейти к началу страницы

Подпишитесь на новости индустрии

Нажимая на кнопку "подписаться", вы соглашаетесь с


политикой обработки персональных данных