🛒 0
×

Your chosen CVs

No CV in your cart yet

Analytics

Москва
Added: 23.04.2026
You can open access to the talent’s contacts for only 2 euro!

Пожалуйста, войдите, чтобы скачать резюме.

Location:

Москва

Birthday date:

16/05/2003

Experience level:

3-5 years

Education level:

Higher

Languages:

Russian: Native

English: B2

About

Work experience

Analytic

ГБУ Автомобильные дороги САО

02.2022-12.2023

Обязанности:
1) Сбор, анализ и формализация требований внутренних заказчиков к витринам данных, дашбордам и управленческой отчётности по операционным показателям.
2) Проектирование и развитие витрин данных для контроля показателей по содержанию объектов, выполнению работ, использованию техники и исполнению производственных планов.
3) Подготовка и оптимизация SQL-запросов в MS SQL для формирования детальных и агрегированных наборов данных.
4) Подготовка данных для построения дашбордов и аналитической отчётности в Power BI.
5) Контроль качества данных: сверки, поиск дублей, проверка корректности показателей, анализ расхождений между источниками.
6) Документирование логики расчётов, структуры витрин, правил подготовки данных и бизнес-требований в Confluence, ведение задач в Jira, контроль изменений через Git.

Достижения:
1) Разработал и развил 8 витрин данных для операционной и управленческой отчётности по ключевым направлениям деятельности подразделений.
2) Подготовил данные для 10 дашбордов в Power BI, что позволило перевести часть отчётности из ручного формата в регулярный аналитический контур.
3) Оптимизировал SQL-запросы и расчётные сценарии, ускорив формирование выборок, витрин и отчётных наборов в 1,5 раза.
4) Организовал обработку данных объёмом до 200 тыс. записей за отчётный цикл, обеспечив стабильную подготовку данных для дашбордов и аналитики.

Технологический стек:
MS SQL, SQL, Power BI, Python, ETL, Git, Jira, Confluence

Analytics

СДМ-БАНК

02.2024-02-2026

Обязанности:
1) Сбор, анализ и формализация бизнес-требований к витринам данных, дашбордам и аналитической отчётности для клиентского, продуктового, операционного и финансового направлений.
2) Проектирование и развитие витрин данных для анализа клиентской базы, транзакционной активности, продуктовых показателей, операционной эффективности и финансовых метрик.
3) Подготовка и оптимизация SQL-запросов для формирования детальных и агрегированных слоёв данных, аналитических выборок и отчётных наборов.
4) Разработка и сопровождение ETL/ELT-процессов с использованием Airflow, Spark и Python для загрузки, очистки и трансформации данных.
6) Работа с Greenplum, ClickHouse и PostgreSQL при построении витрин, агрегатов и аналитических слоёв данных.
7) Использование Hadoop и Spark для обработки больших массивов данных и расчёта показателей для регулярной и ad-hoc аналитики.Подготовка наборов данных для построения дашбордов и аналитической отчётности в Redash.
8) Контроль качества данных: валидация, дедупликация, сверка бизнес-правил, анализ причин расхождений и участие в устранении инцидентов.
9) Формализация логики расчёта KPI, метрик и правил агрегации данных для витрин и дашбордов.
10) Взаимодействие с пользователями и функциональными подразделениями по вопросам корректности данных, витрин и отчётности.
11) Документирование требований, схем витрин, потоков данных и правил расчётов в Confluence, ведение задач в Jira, контроль изменений через Git.

Достижения:
1) Участвовал в развитии хранилища данных объёмом около 4 ТБ и исторического слоя объёмом 600+ млн записей, обеспечив стабильную подготовку данных для аналитической отчётности и витрин.
2) Разработал и доработал 16 витрин данных для клиентской, продуктовой, операционной и финансовой аналитики, сформировав единый слой данных для бизнес-пользователей.
3) Подготовил данные для 19 дашбордов и аналитических отчётов в Redash, сократив время получения ключевых метрик для бизнеса с нескольких часов до 30 минут.
4) Реализовал и сопровождал около 20 DAG’ов в Airflow, автоматизировав загрузку и обновление данных из 8 систем-источников.
5) Автоматизировал обработку и трансформацию данных объёмом до 3 млн записей в день с использованием Python, Spark и SQL, сократив долю ручных операций примерно на 20%.
6) Использовал Python (pandas) и Spark для трансформаций, дедупликации и валидации данных перед загрузкой в Greenplum / ClickHouse, что позволило повысить качество витрин и расчётных наборов данных.
7) Оптимизировал SQL- и Spark-сценарии расчёта показателей, сократив время обновления витрин и подготовки отчётов с 40 минут до15 минут.
8) Формализовал и задокументировал более 20 бизнес-метрик, KPI и правил расчёта, используемых в витринах и дашбордах для аналитики и отчётности.

Технологический стек:
Greenplum, Hadoop, ClickHouse, PostgreSQL, SQL, Airflow, Spark, Python, Redash, ETL, ELT, DWH, Git, Jira, Confluence.

Analytics

Сбербанк

02.2026-05.2026

Обязаности:
1) Участвовал в проекте миграции дашбордов и аналитической отчётности с Qlik Sense на Навигатор BI.
2) Собирал и уточнял требования на встречах с заказчиком, участвовал в проработке логики отображения показателей и структуры отчётных форм.
3) Подготавливал и валидировал данные для переноса аналитических представлений в новую BI-платформу.
4) Разрабатывал Python-парсеры для извлечения, структурирования и подготовки метаданных по дашбордам и BI-объектам.
5) Подготавливал атрибуты и описания дашбордов для повышения качества поиска аналитических материалов в GigaChat.
6) Использовал Excel для сверки выгрузок, подготовки сводных таблиц и сопоставления данных между исходной и целевой системами.
7) Участвовал в сборке аналитических представлений в Navigator BI, включая настройку пагинации для работы с большими выборками данных.
8) Работал с данными в PostgreSQL, Greenplum, Hadoop и ClickHouse в рамках проверки результатов миграции и анализа расхождений.
9) Участвовал в публикации и сопровождении изменений через Jenkins.

Достижения:
1) Полностью перенёс 3 дашборда из Qlik Sense в Navigator BI, включая перенос логики отображения, проверку корректности данных и адаптацию представлений под новую платформу.
2) Разработал Python-парсеры для извлечения метаданных по BI-объектам, что позволило сократить долю ручной подготовки данных при обработке и классификации дашбордов.
3) Подготовил и сверил 10+ Excel-выгрузок, сводных таблиц и проверочных файлов для валидации данных между старой и новой BI-платформой.
4) Участвовал в настройке пагинации и тестировании отображения данных в Navigator BI для отчётов с выборками до 100–300 тыс. строк.
5) Подготовил данные и описательные атрибуты для BI-объектов, что улучшило качество поиска дашбордов и аналитических материалов через GigaChat.
6) Получил практический опыт BI-миграции, сверки аналитических отчётов и сопровождения изменений в проектной среде с использованием Jenkins.

Технологический стек:
Qlik Sense, Навигатор BI, Excel, сводные таблицы, ВПР, Python, PostgreSQL, Greenplum, Hadoop, ClickHouse, Jenkins

Education:

МАДИ

Faculty: Управление

Specialisation: Информатика и вычислительная техника

Graduation year: 2025

ММА

Faculty: Информационные технологии

Specialisation: Прикладная информатика

Graduation year: 2027

Key skills:

pandas
Qlik Sense
Apache Hive
Математический анализ
Администрирование баз данных
Tableau
Power Bl
MS Excel
Agile
Наставничество
UML
Atlassian Jira
Atlassian Confluence
Hadoop
DWH
Apache Spark
Clickhouse
ORACLE
PostgreSQL
MS SQL
Docker
Linux
Apache Airflow
Greenplum
REST АРІ
Redash
Apache Kafka
NoSQL
Python