Задачи
Определять стратегию, цели и приоритеты развития Data Platform в части инструментов для работы с данными — LLM-agent, self-service ETL, Предсконфигурированные Jupyter-ноутбуки, Единый оркестратор, Банк метрик, Единый Git, DataHub (lineage и метаданные).
Быть центром коммуникации для всех заказчиков вверенных продуктов, управлять их ожиданиями и релевантным образом управлять бэклогом core-разработки.
Выстраивать централизирующую функцию инструментов Data Platform для бизнес-юнитов и команд, использующих их в своей аналитической и инженерной деятельности.
Совместно с командами core-разработки формулировать цели, архитектурные решения и требования к системам и инструментам, обеспечивающим единый цикл работы с данными и синхронизировать сформированные цели с целями заказчиков.
Отвечать за верхнеуровневую архитектуру, CJM, взаимную интеграцию и целостность экосистемы инструментов (OneGit как центральный компонент, увязывающий ETL-инструменты, DataHub, lineage и метаинформацию).
Формировать и поддерживать синхронизированные бэклоги по каждому из инструментов, обеспечивать их согласованность между командами и с общей стратегией развития платформы.
Управлять приоритизацией задач, контролировать выполнение, влиять на ход разработки, даже если команды находятся вне прямого подчинения (матричная структура).
Ответственность за аудиторные метрик над данными и инструментами, понимать, какие данные и где используются, строить контроль и мониторинг их качества и покрытия.
Развивать культуру продуктового подхода в инженерных командах, соединяя техническую глубину и ориентацию на бизнес-ценность.
Работать руками с инструментами — тестировать фичи, проверять сценарии использования, на основании опыта вносить улучшения и управленческие корректировки.
<span></span>
Требования
Глубокое понимание принципов построения ETL-инфраструктуры, работы с оркестраторами, CI/CD-практик для data pipelines, управления схемами и метаданными, работа RAG систем и LLM-агентов.
Практический опыт в архитектуре и проектировании инструментов самообслуживания для data-инженеров и аналитиков (Airflow, Spark, dbt, Prefect, Jupyter, Kafka и др. — любые аналоги).
Опыт руководства командами или направлениями не менее 2 лет (team lead / tech lead / product owner уровня), умение ставить цели и управлять приоритетами в матричной структуре.
Умение работать на стыке: понимать технические детали (до уровня кода и инфраструктуры) и одновременно мыслить как продукт, выстраивая ценность и метрики успеха.
Понимание архитектуры data mesh / data platform / data governance, принципов lineage, каталогов метаданных и управления качеством данных.
Развитые навыки коммуникации и фасилитации: умение выстраивать взаимодействие с core-командами, аналитиками, разработчиками и менеджментом.
Мы предлагаем
Формат работы
Уровень
График работы
AI VK
Мы развиваем технологии искусственного интеллекта для ключевых продуктов VK, создаём систему рекомендаций и поиска контента на наших платформах.