Конференция «Качество данных 2021»

Данные сегодня – ключевой фактор бизнеса и государственного управления, однако сырые данные не позволят получить ожидаемых преимуществ. Единственная в России конференция, посвященная тому, как обеспечить качество данных в соответствии с целями их использования, гарантировав полноту, точность, корректность и актуальность.
ДМИТРИЙ ВОЛКОВ
программный директор серии практических конференций издательства
«Открытые системы»
Управление качеством – важная часть любого проекта анализа имеющихся в компаниях и организациях данных, однако, стратегия управлению качеством данных индивидуальна, ее нельзя «списать» у тех,
кто этот путь уже прошел, но можно изучить уже накопленный опыт и познакомиться с соответствующими инструментами. «Качество данных» – единственная в России конференция, собирающая пользователей
и создателей решений управления качеством данных, специалистов из разных отраслей, готовых поделиться конкретным опытом построения и реализации стратегии управления качеством данных, развертывания
и эксплуатации конвейера непрерывного обеспечения качества, необходимого любой организации
цифровой экономики.
Close
Close
Для связи с организаторами
conf@osp.ru
Обсудим:
Как качество данных влияет на бизнес: характеристики и риски, показатели и метрики?
Как построить свою стратегию управления качеством данных?
Как наладить эффективный конвейер обеспечения качества данных?
Архитектура поддержки качества данных: модели и потоки?
Как интегрировать данные и управлять метаданными?
В чем секреты обеспечения качества реестровых и справочных данных?
Как на практике организовать профилирование, очистку и обогащение данных?
Как выбрать инструменты управления качеством данных?
В программе:
Стратегия
  • показатели и метрики качества данных
  • реестровые и справочные данные
  • конвейер качества данных
  • интеграция данных: очистка, преобразование, обогащение
  • архитектура данных,
  • управление метаданными
  • Data Governance: стратегия, стандарты, политики, процедуры, процессы, владельцы и кураторы данных
Инструменты
  • критерии выбора
  • универсальные решения и платформы управления качеством данных
  • средства подготовки данных, механизмы работы с мастер-данными
  • средства интеграции данных
  • инструменты моделирования данных и управления метаданными
  • проприетарные и свободные инструменты профилирования и очистки данных, мониторинга качества, создания информационных витрин
Практика
  • разработка архитектуры и моделирование данных
  • интеграция, сертификация и нормативное регулирование
  • ведение мастер-данных
  • профилирование, контроль и измерение, мониторинг и управление инцидентами
  • формирование культуры работы с данными
  • отраслевой и функциональный опыт: 10+ отраслей, включая финансы, телеком, ретейл, ТЭК, промышленность, госсектор, здравоохранение, страхование и пр.
Конференция для:
бизнес-руководителей, руководителей проектов и информационных продуктов
ИТ-директоров, CDO и технических директоров
аналитиков, консультантов, специалистов по данным, экспертов по качеству данных
руководителей подразделений продаж, маркетинга, операций и разработки
Спикеры:
Вернуться
к докладчикам
Сергей Алешкин, «Согаз»
Закончил МИИТ по специальности «Информационные системы в экономике». Принимал участие в развертывании платформы SAP R3 для управления ресурсами ОАО «РЖД», затем более десяти лет работал на руководящих позициях в аналитических подразделениях организаций финансово-кредитного сектора: выстроил маркетинговую аналитику в ряде банков и АИЖК (ДОМ.РФ), где запустил продукт «Социальная ипотека» упростивший приобретение жилья почти 14 тысяч семьям. С 2016 года руководит подразделениями, отвечающими за цифровизацию аналитики, включая data science (исследование данных) и прогнозное моделирование в крупнейших страховых компаниях России: значительно увеличил эффективность продаж полисов ИФЛ и КАСКО клиентам ОСАГО с помощью использования моделей машинного обучения; настроил тарификацию по продуктам добровольного страхования на основе приоритезация кластеров клиентов, внедрил систему интерактивных цифровых отчетов для нужд агентской сети. Сейчас в «Согаз» отвечает за разработку моделей машинного обучения и их внедрение в бизнес-процессы компании.
Управление качеством данных в страховании

Успех работы страховых компаний в условиях высоко конкурентного рынка во многом определяется их операционной эффективностью, однако сам факт автоматизации еще не делает предприятие цифровым – для оптимизации функционирования бизнес-процессов требуется их перестройка. Доклад посвящен анализу опыта управление качеством данных в страховании с целью их применения для совершенствования бизнес-процессов. Особое внимание уделено обеспечению качеству данных для построения моделей машинного обучения в бизнес-процессах кросс-продаж в агентской сети с целью выявления клиентов с высоким уровнем спроса на продукты добровольного страхования, позволившему на порядок повысить результативность кросс-продаж. Кроме этого, в докладе рассмотрено как анализ происхождения данных и их существующих потоков, а также оценка релевантности данных поставленной задаче вместе с выявлением зависимостей между целевыми признаками и основными характеристиками помогают сформировать эффективную модель кросс-продаж в агентской сети и, как следствие, повысить результативность продаж.
Вернуться
к докладчикам
Марианна Данилина, ПСБ
Окончила МГУ им.М.В. Ломоносова и MBA в Colorado Heights University, США. Более 15 лет опыта в банковской сфере и в области консультационных услуг для финансовых институтов. Работала в EY, KPMG, и др. Специализируется на повышении эффективности и реализации проектов по внедрению инструментов цифровой трансформации, таких как интеллектуальная роботизация бизнес-процессов и анализ больших данных. Сейчас – руководитель направления по цифровой трансформации «Промсвязьбанка».
Управление данными как активом

Почти 20% отечественных компаний ввели у себя позицию CDO, надеясь «прибраться» в доме корпоративных данных, причем почти 95% из них считают, что для этого достаточно лишь внедрить какую-либо модную технологию, например, ИИ, не утруждая себя работой над качеством данных. Однако, ни большой объем данных, ни технологии ИИ не пойдут на пользу компаниям – бизнес-целей одними технологиями не достигнуть. Мало того, неизменно растет цена ошибки при принятии решений на основе «грязных» данных. Правильное руководство данными (Data Governance) позволяет превращать их в качественные бизнес-активы, что для банка означает рост собираемости просроченной задолженности, увеличение вторичных продаж, снижение стоимости маркетинговых кампаний и пр. Доклад посвящен обсуждению подхода к управлению данными как активом и преодолению проблем, возникающих при решении задач монетизации и снижения стоимости владения данными. Особое внимание уделено метрикам оценки качества управления данными и инструментам, позволяющим предсказуемо управлять модельным риском и извлекать выгоду из данных.
Вернуться
к докладчикам
Алексей Незнанов, НИУ ВШЭ
Кандидат технических наук, доцент. Окончил МЭИ. Работал программистом, аналитиком, научным сотрудником, преподавателем высшей школы (МЭИ, МФТИ, ВШЭ и др.) – подготовил несколько авторских курсов, включая «Проектирование взаимодействия с пользователем», «Распределенные системы» и «Прикладная теория графов». С 2002 года участвовал в различных проектах комплексной корпоративной автоматизации и аналитики, в частности, в ФГБУ «Федеральный научно-клинический центр детской гематологии, онкологии и иммунологии имени Дмитрия Рогачева». Имеет опыт разработки архитектуры и реализации систем интеллектуального анализа данных. Сейчас – старший научный сотрудник Международной лаборатории интеллектуальных систем и структурного анализа, а также доцент Департамента анализа данных и искусственного интеллекта ФКН НИУ ВШЭ.
Интеграция медицинских информационных систем: качество данных и знаний

Медицинская информатика в целом и, особенно, клиническая работает с одними из наиболее сложных задач анализа данных: распознавания (диагностика), анализ временных рядов (интерпретация историй госпитализации), автоматическая обработка текстов (истории болезни и различные медицинские документы) и др. При построении систем поддержки принятия врачебных решений (CDSS) все подобные задачи должны решаться совместно, а применяемые методы обязаны обладать высоким уровнем надежности и интерпретируемости. Отсюда понятен интерес как к качеству данных, так и к качеству формальных знаний – лишь формализованные знания позволяют реально повысить «совместную квалификацию» клинициста и компьютера, а также развивать методы анализа данных и принятия решений. Примечательно, что именно в медицине хорошо развита онтологическая поддержка и накоплен громным опытом решения задач управления данными в сложнейших регуляторных и рыночных условиях. Доклад посвящен обсуждению значимости и сущности оценки качества данных и знаний для клиницистов, а также разбору наиболее общих тенденций и проблем, актуальных сегодня не только в здравоохранении: сбор и управление качеством исходных данных; особенности процессов обработки данных и интеграции медицинских информационных систем; информационное сопровождение клинических исследований, проблемы внедрения систем поддержки принятия врачебных решений и пр..
Вернуться
к докладчикам
Михаил Петров, Счетная палата РФ
Более 20 лет в ИТ-индустрии: компания «Финансовые и бухгалтерские консультанты» (ФБК/PKF), PricewaterhouseCoopers, i2, Оргкомитет «Сочи 2014», где прошел путь от руководителя Управления ERP до директора Технологического Операционного Центра, отвечая за поддержку всех технологических сервисов для десятков тысяч пользователей на всех объектах Игр. В Минкомсвязи РФ руководил программой подготовки к Чемпионату Мира по футболу 2018 года. Принимал участие в создании Проектного офиса Национальной Технологической Инициативы (НТИ). На позиции директора по управлению проектами цифровой трансформации ВТБ работал над организацией корпоративного акселератора и организацией инвестиций в финтех-проекты. Сейчас в Счетной палате Российской Федерации организует аналитическую работу с данными в области государственного аудита и контроля. Преподает в ведущих ВУЗах страны, соавтор учебников и монографии.
Роль качества в системе управления данными: люди, функции и инструменты

На пути получения полного представления об объекте исследования Счетная палата РФ сталкивается с рядом препятствий, усложняющих процесс создания пула качественных данных: разнообразие, множество разрозненных источников и большой объем данных; отсутствие стандартизации и пр. С проблемой обеспечения качества данных сталкиваются сегодня многие отечественные предприятия и организации, поэтому сегодня создается Альянс профессионалов по управлению данными, призванный консолидировать знания и опыт в данной области, а также решать задачи по подготовке специалистов. Доклад посвящен обсуждению вопросов обеспечения качества данных по всем ключевым аспектам процесса их получения: люди, функции и инструменты. Особое внимание уделено стратегии подготовки персонала и формирования культуры работы с данными – люди самое важное и самое сложное звено системы управления данными.
Вернуться
к докладчикам
Валерий Артемьев, Банк России
Окончил МГТУ им. Н.Э.Баумана, более 40 лет в ИТ-индустрии. Проходил стажировку по банковским системам (Великобритания) и повышал квалификацию по управлению данными в IBM (США, Германия). С 1993 года работает в Банке России, где планировал и руководил проектами по веб-приложениям, XML-форматам сбора отчетности, хранилищам данных и бизнес–аналитике, управлению метаданными. Разрабатывал архитектуру решений централи¬зованных прикладных систем, участвовал в создании систем блока банковского надзора: ЕИСПД для монито¬рин¬га и анализа деятельности кредитных организаций; АКС для анализа платежной информации. Сейчас работает в Центре управления данными, Департамент статистики и управления данными Банка России.
Расширенное качество данных: свойства, метрики и технологии

С ростом объемов и разнообразия данных пришло осознание их ценности и рисков для бизнеса в случае использования некорректных сведений. Важная составляющая ценности данных – это расширенное качество данных, обеспечение которого на практике означает усложнение конвейера обеспечения качества за счет добавления измерения показателей качества, мониторинга, а также обеспечения управления инцидентами и проблемами качества. Управление расширенным качеством данных включает выявление критически важных данных, формирование показателей и метрик, организацию конвейера обеспечения качества, управление мастер-данными, интеграцию данных, ведение и связывание метаданных, моделирование данных, формирование классификаторов, ведение бизнес-глоссария и бизнес-правил, анализ происхождения и зависимости данных. Доклад посвящен обсуждению задачи управления расширенным качеством данных для снижения операционных, управленческих и репутационных рисков для бизнеса. Особое внимание уделено характеристикам, показателям и метрикам расширенного качества данных, а также обзору технологий и инструментов, обеспечивающих требуемое качество данных.
Вернуться
к докладчикам
Анна Серебряникова, Ассоциация больших данных
Окончила юридический факультет МГУ им. М.В. Ломоносова, получила степень магистра права в Университете Манчестера (Великобритания). Более 20 лет в юриспруденции – курировала взаимодействие с органами государственной власти и занималась управлением бизнеса. Одна из ключевых персон телекоммуникационной отрасли России, эксперт в области цифровизации. Автор многочисленных статей, докладчик отраслевых форумов и конференций. Сейчас – управляющий партнер компании nlogic, президент Ассоциации больших данных, объединяющей крупных отечественных владельцев больших данных с целью создания в стране благоприятных условий для развития технологий и продуктов в этой сфере.

Ксения Дроздова, nlogic

Окончила математический факультет НИУ ВШЭ и магистерскую программу «Компьютерная лингвистика». Занималась разработкой алгоритмов голосовой биометрии. Принимала участие в разработке интеллектуального ядра робота LegalApe, представленного на VIII Петербургском международном юридическом форуме. Сейчас – руководитель команды разработки компании nlogic, где курирует общую деятельность команды и отвечает за развитие проектов.
Как обеспечить качество данных для проектов искусственного интеллекта?

Работа с данными – важнейший этап любого проекта искусственного интеллекта, требующий особого внимания и отдельных ресурсов. Доклад посвящен обсуждению зависимости успешности проектов искусственного интеллекта от объемов и репрезентативности данных, а также влияния этих факторов на качество работы систем ИИ и их устойчивость к разнообразию входных данных. Кроме этого рассмотрен практический аспект работы с данными – этап разметки, на котором из большого количества примеров выделяются данные, которые предстоит находить с помощью алгоритмов ИИ. Качество модели во многом зависит именно от разметки данных – невозможно построить эффективную модель машинного обучения, гарантирующую минимум ошибок без качественных, подготовленных и классифицированных обучающих примеров. Особое внимание в докладе уделено обзору реализованных проектов искусственного интеллекта и обсуждению подходов к обеспечению их успешной промышленной эксплуатации.
Вернуться
к докладчикам
Сергей Горшков, «ТриниДата»
Более 20 лет работает в области создания сложных систем автоматизированной обработки знаний и поддержки принятия решений. Архитектор ряда автоматизированных систем, эксплуатируемых сегодня на крупных отечественных предприятиях. Специалист по разработке инструментов структурирования знаний, интеллектуальных алгоритмов обработки информации, созданию ситуационных центров и витрин данных. Автор методического пособия «Введение в онтологическое моделирование» и соавтор монографии «Онтологическое моделирование предприятий». Сейчас – директор компании «ТриниДата», специализирующейся на реализации проектов создания ИТ-архитектур, интеграции и анализа данных, управления корпоративными знаниями.
Корпоративная отчетность: быстро, легко и точно

В процессе подготовки корпоративной отчетности компании обычно сталкиваются с множеством проблем, вызванных разнородностью источников данных, необходимостью отслеживать происхождение каждого показателя, быстро изменять состав и структуру форм отчетности, а также сравнения данных из разных источников, определения степени доверия каждому значению показателя и обеспечения "сходимости" показателей в разных отчетах. Решение этих проблем позволит превратить работу с корпоративной отчетностью из нудной, трудоемкой и формальной деятельности, чреватой порождением критических для бизнеса ошибок, в процесс создания полезной информации, помогающей при принятии решений и формировании точной картины состояния дел на предприятии. Доклад посвящен обсуждению способов решения проблем, возникающих при подготовке корпоративных отчетов, а также инструментов, позволяющих быстро обрабатывать имеющиеся в компании данные с учетом всех их взаимосвязей.
Вернуться
к докладчикам
Алевтина Тинас, Tele2
Окончила Липецкий государственный технический университет по специальности «Автоматизированные системы управления». Более 15 лет опыта работы в ИТ-индустрии, из них 12 лет в области управления данными: создание корпоративной аналитической системы в компании «Фольксваген Банк РУС»; развитие системы управления корпоративными данными компании СИБУР. Сейчас – руководитель отдела методологии управления данными дирекции по управлению данными и контролю маржинальности бизнеса в компании Tele2, где отвечает за внедрение и оптимизацию процессов управления данными, формирование культуры работы с данными и управление их качеством.

Екатерина Моисеева, Tele2

Почти 15 лет опыта работы в телекоммуникационной индустрии, из которых около 10 лет в сфере работы с данными: технический аналитик по качеству данных в компании «Салым Петролеум Девелопмент Н.В.» – дочернего предприятия «Шелл Салым Девелопмент Б.В.» и ПАО «Газпром нефть» – где отвечала за формирование культуры работы с данными и популяризацию технологий и методов повышения их качества. За время работы в компании команда, курирующая деятельность по обеспечению качества данных неоднократно занимала первое место в рейтинге группы компаний Shell. Сейчас – старший менеджер по качеству данных в компании Tele2.
Система координат для качества данных

В каждой компании обычно по-разному понимается понятие «качество данных» – в некоторых ошибка лишь в одной записи считается критичной для бизнеса, а для других будет незначительна потеря тысяч строк из базы данных. Как определить, какие данные и какого качества важны для компании? Кто может дать объективную оценку текущего уровня качества данных? Как выстроить систему мониторинга качества данных и понять насколько вообще эффективно работают процессы управления данными? Доклад посвящен обсуждению метрик (KPI) оценки качества данных на примере телекоммуникационной отрасли. Особое внимание уделено обсуждению актуальности определенных метрик, отвечающих специфике конкретного бизнеса.
Вернуться
к докладчикам
Алексей Ильин, Ataccama
Окончил ВМК МГУ, кандидат технических наук. Около 20 лет опыта в области управления качеством данных, мастер-данными и метаданными, а также построения корпоративных хранилищ данных. В интересах различных международных консалтинговых компаний реализовал ряд проектов по управлению данными для ведущих российских предприятий, работающих в сфере ретейла, финансов и добычи углеводородов. Сейчас – генеральный директор российского офиса компании Ataccama, где отвечает за стратегические проекты в области управления качеством данных, управления мастер-данными и управления метаданными для заказчиков из России и стран Восточной Европы.

Александр Сабуров, Россельхозбанк

Окончил Финансовый университет при Правительстве РФ. Более десяти лет занимался корпоративным развитием, стратегией и повышением эффективности деятельности трех банков из Топ-20. Руководил программами проектов развития корпоративных ИТ и внедрением систем управления данными. Сейчас – CDO Россельхозбанка.
Инструменты управления качеством данных: вчера, сегодня, завтра

Любая компания и организация цифровой экономики сталкивается сегодня с проблемами обеспечения качества данных, пытаясь, как правило, решать их с помощью различных разрозненных инструментов, позволяющих, как правило, справиться лишь с отдельными задачами и требуя, при этом, значительных трудозатрат. Доклад посвящен обсуждению опыта перехода финансовой компании от использования точечных процессов и инструментов повышения качества данных к единой централизованной функции и использованию интегрированной технологии управления качеством данных. Особое внимание уделено изложению взгляда компании Ataccama на текущее состояние дел по применению инструментов класса Data Quality в компаниях и организациях различной отраслевой принадлежности, а также обсуждению возможностей средств от Ataccama, помогающих не только повысить эффективность внедрения решений по управлению качеством данных, но и вовлечь в процессы улучшения качества данных максимальное число сотрудников.
Вернуться
к докладчикам
Александр Афонин, X5 Retail Group
Окончил Кубанский Государственный Технический Университет по специальности прикладная информатика в экономике. Почти 20 лет в ИТ индустрии, из них около 15 лет в работает федеральных розничных сетях, начав как разработчик, архитектор, а в последствии руководитель проектами и командами разработчиков. Успешно завершил ряд крупных ИТ-проектов, включая решения класса TMS (Transport Management System) и WMS (Warehouse Management System) для крупной розничной сети. Руководил департаментом разработки ПО в несколько сотен человек, имеет опыт работы в качестве CIO. Сейчас – директор департамента развития платформы по управлению качеством данных, офис CDO X5 Retail Group.
Платформа управления качеством данных для ретейла

Качество и доступность данных стали сегодня важнейшими факторами успеха в бизнесе – применение любых аналитических инструментов бессмысленно при отсутствии доверия к данным, а любые проблемы c их качеством неизбежно приводят к существенным издержкам в компаниях, особенно такого масштаба, как X5. Доклад посвящен практикам внедрения процессов поддержки качества данных, метрикам их оценки, а также вопросам формирования культуры работы с данными. Особое внимание уделено обсуждению подходов к созданию платформы обеспечения качества данных и роли бизнес-пользователей в процессе управления качеством.
Вернуться
к докладчикам
Любовь Кайдалова, «Газпром нефть»
Окончила Тюменский государственный нефтегазовый университет по специализации «Экономика и управление на предприятии (ТЭК)». Почти 15 лет опыта работы в нефтегазовой индустрии, в частности, руководила направлением планирования потребности в группе внедрения шаблона «Программы реинжиниринга процессов финансов и логистики» для бизнес-направления «Разведка и добыча в ТНК-ВР». В «Газпром нефть» начала карьеру с руководителя группы проекта по унификации учета и калькулирования себестоимости всех дочерних добывающих обществ, отвечая за повышение качества управленческой отчетности, сформированной различными автоматизированными системами. Сейчас руководит направлением по качеству данных в ПАО «Газпром нефть».
Управление качеством данных: успехи, неудачи, уроки

По мнению аналитиков, почти половина бизнес-инициатив проваливается из-за проблем с качеством данных. Конечно, зачастую сотрудники вручную пытаются выявлять ошибки в данных, но на всем объеме это невозможно, причем результаты проверок труднодоступны и не известны всем потребителям данных, что вызывает необходимость повторных проверок. Автоматизированные процессы управления качеством данных позволяют снизить трудозатраты на выявление, устранение и предотвращение ошибок. Как построить свою стратегию управления качеством данных? Какие именно данные критичны для бизнеса? Как заручиться поддержкой бизнеса, учитывая, что сам факт выявления ошибки проблемы их качества не решит? Как наладить эффективный конвейер обеспечения качества данных? В чем секреты обеспечения качества реестровых и справочных данных? Как на практике организовать профилирование, очистку и обогащение данных? Как выбрать инструменты управления качеством данных? Доклад посвящен ответам на эти вопросы, опираясь анализ опыта управления качеством данных в вертикально-интегрированной компании. Особое внимание уделено описанию опыта входящей в состав консорциума Open Group ассоциации Open Subsurface Data Universe, координирующей разработку стандартов и платформ экосистемы открытых данных. Кроме «Газпром нефть» в ассоциацию входят такие нефтесервисные компании и ИТ-корпорации, как: Shell, Chevron, ExxonMobil, TOTAL, Japan Oil, Schlumberger, Hitachi Vantara, Intel, IBM, Google, Nvidia и TIBCO.
Вернуться
к докладчикам
Нина Адамова, НИИ «Восход»
Качество данных для Цифровой аналитической платформы

Цифровая аналитическая платформа (ЦАП) представления статистических данных – ключевой элемент системы управления данными, создаваемой Федеральной службой государственной статистики в рамках национальной программы «Цифровая экономика». Платформа предназначена для поддержки единого информационного пространства, доступного всем органам государственной власти, коммерческим компаниям и общественным организациям. Концепция ЦАП предусматривает прозрачность всех этапов работы потребителей со статистической информацией и координацию их действий, что, в частности, позволит существенно ограничить количество форм, необходимых для заполнения, сократить перечень показателей отчетности и обеспечить однократное предоставления первичных статистических сведений. Повышение качества данных и полезности собираемых сведений обеспечивается благодаря Единой Технологической архитектуре (ЕТА) и Единой среде разработки (ЕСР), позволяющий формировать выборки для всех обследований, включая динамическую замену объектов в них. Доклад посвящен обсуждению опыта применения ЕТА и ЕСР при создании и развитии Цифровой аналитической платформы.
Вернуться
к докладчикам
Светлана Бова, Банк ВТБ
Почти 20 лет опыта работы в крупнейших российских и международных банках – управление стратегическими проектами автоматизации отчетности (управленческой, МСФО, регуляторной для Банка России) с использованием корпоративных хранилищ данных на базе реляционных СУБД и технологий BigData: «Россельхозбанк», НОМОС-Банк, МДМ-банк, ING Group и др. Реализовала масштабный проект по реинжинирингу корпоративного хранилища данных для групповой отчетности банка группы Societe Generale Group с внедрением сквозного процесса управления данными, включая создание единого унифицированного бизнес-глоссария, корпоративной модели данных и карты потоков данных, а также с автоматизацией процедур идентификации ошибок качества данных и процессов по их устранению. Ведет активную просветительскую и образовательную деятельность для продвижения в России практик и методик управления данными. Удостоена премии CDO Awards 2020 за вклад в популяризацию профессии CDO. Сейчас – директор по управлению данными (Chief Data Officer), «Банк ВТБ», где отвечает за формирование стратегии управления данными в банке и группе компаний, разработку и организацию процессов управления данными, внедрение инструментов поиска и навигации по данным, а также единой системы контроля и мониторинга качества данных.
Как выстроить эффективные процессы управления качеством данных?

«Чистота в данных» – залог «здоровья» любого предприятия и компании цифровой экономики. Чем крупнее организация, чем масштабнее спектр продуктов и сервисов, которые она предоставляет своим клиентам и чем разнообразен ее ИТ-ландшафт, тем более чувствительны ее бизнес-процессы к качеству данных. Доклад посвящен обсуждению пошагового выстраивания эффективных процессов управления качеством данных и секретов их вплетения в корпоративную архитектуру, а также интеграции в производственные процессы внесения изменений в информационные системы и бизнес-процессы. Особое внимание уделено выбору наиболее адекватной бизнесу операционной модели управления качеством данных, инструмента контроля и мониторинга их качества. Кроме этого, анализируется опыт внедрения такого мониторинга в банках и разбираются типовые ошибки.
Вернуться
к докладчикам
Руслан Трачук, «Юнидата»
Закончил СПбПУ по специальности «Информационная безопасность». Около 20 лет работает в сфере разработки ПО, например в компании «Рексофт» специализировался на создании продуктов по заказам западных клиентов рынка телекоммуникаций. Сейчас – технический директор в компании «Юнидата», где отвечает за подразделение R&D (разработка платформы и продуктов на ее основе).
Data Quality в высоконагруженных федеральных проектах

Доклад посвящен обзору высоконагруженных информационных систем (ИС), имеющих в своем составе компоненты управления качеством данных (Data Quality, DQ), эксплуатируемых сегодня в различных прикладных областях и решающих конкретные задачи в определенных технических условиях. Особое внимание в докладе уделено анализу инструментария для реализации функциональности DQ.
Вернуться
к докладчикам
Владимир Панчук, «Росатом»
Окончил МГУПС (МИИТ) по специальности вычислительные машины, комплексы, системы и сети. Около 20 лет опыта работы в ИТ-индустрии. В 2001-2003 годах для ПАО Сбербанк разрабатывал централизованную систему выявления террористов и должников в условиях полной децентрализации систем в филиалах банка. Затем создавал централизованную систему для формирования единой базы клиентов для этой финансовой организации, а в 2009 года для «Альфа-Банк» разработал единое решения для обслуживания клиентов юридических лиц и участвовал во внедрении системы Pega BPM. Сейчас – главный эксперт, группа архитекторов «Росатом», где отвечает за разработку архитектуры в рамках программ цифровой трансформации ГК.

Иван Уваров, «Росатом»

Управление качеством данных: инструмент и процесс

Сегодня компании и предприятия собирают все больше данных, что делает весьма актуальной задачу управления их качеством, позволяющее за счет организационной культуры, технологий и специальных методик обеспечить получение точных и полезных результатов. Доклад посвящен обзору особенностей управления данными в ГК «Росатом» при строительстве АЭС. Особое внимание уделено разбору подходов, применяемых для выстраивания процессов повышения качества данных.
Вернуться
к докладчикам
Владимир Колдаев, Loginom
Закончил Рязанский Государственный Радиотехнический университет по специализации "Экономика и управление на предприятии (в машиностроении)" и "Проектирование электронно-вычислительных средств". Более 10 лет в ИТ-индустрии. Основатель консалтингового центра «Фактор Роста». Сейчас в Loginom Company отвечает за развитие партнерской сети и продвижение на рынок готовых решений на базе платформы Loginom поддержки аналитических процессов от интеграции и подготовки данных до моделирования, развертывания решение и визуализации результатов.
Как навести порядок в данных для сети медицинских лабораторий?

Если в прошлом веке революцию в сфере здравоохранения произвела простая рекомендация мыть руки, то в нынешнем веке аналогичный совет актуален в отношении гигиены данных. Доклад посвящен анализу опыта международной сети медицинских лабораторий «Инвитро» по очистке медицинских данных. Особое внимание уделено архитектуре и анализу возможностей аналитической платформы, позволяющей не только гибко настраивать систему очистки данных, но и решать множество сопутствующих задач, возникающих при работе медицинских лабораторий.
Вернуться
к докладчикам
Максим Аннюк, Hitachi Vantara
Окончил Московский физико-технический институт и Российскую экономическую школу, имеет степень MBA London Metropolitan University. Более 20 лет в ИТ-индустрии – обладает опытом ведения и руководства десятками крупных проектов. Выступал в качестве спикера по технологиям IBM и Microsoft. Более 10 лет занимается проектами в сфере аналитики и цифровой трансформации предприятий в таких отраслях, как: энергетика, государственное управление и финансы. Сейчас развивает направление «Цифровой бизнес» в компании Hitachi Vantara, где помогает заказчикам достигать экономических и социальных эффектов с помощью аналитики и решений Интернета вещей.
Как качество данных влияет на результаты бизнеса

Как, внедряя аналитику, сохранять фокус на достижении стратегических трансформационных целей компании?
В докладе: Что такое цифровой семинар и как он помогает быстрее достичь поставленных бизнес-целей. Как передовые методологии DataOps помогают повысить качество и сократить цикл подготовки аналитики, а также как эти методологии реализованы в самой компании Hitachi Vantara.
Стоимость участия
в рублях
7900
до 15.02.2021
по коллективной заявке
от 3-х человек

9900.
с 16.02.2021
по коллективной заявке
от 3-х человек

9900.
до 15.02.2021
12900
С 16.02.2021
онлайн формат

Стоимость участия
4900
Генеральный партнер
Партнер
Информационные партнеры
Мы ждем Вас!
Место проведения:
Отель Palmira Business Club
(Москва, Новоданиловская набережная,6)