VK AI Space — корпоративная ИИ-платформа VK для создания LLM-приложений, RAG-систем, ИИ-агентов и inference-сервисов.
Мы строим платформу, которая помогает компаниям безопасно и эффективно внедрять генеративный ИИ в реальные бизнес-процессы: от поиска по корпоративным знаниям и интеллектуальной обработки документов до агентной автоматизации и интеграции LLM в enterprise-системы.
Команда решает сложные инженерные задачи на стыке backend, ML infrastructure, LLM inference, RAG, observability и highload. Здесь можно влиять на архитектуру одного из ключевых AI-продуктов VK и строить платформу, которой будут пользоваться крупные корпоративные клиенты.
Чем предстоит заниматься
- Работать в кросс-функциональных командах RAG и Evaluation
- Улучшать текущие пайплайны Data Ingestion, внедрять новые (GraphRAG)
- Создавать среду для оценки ИИ-агентов и других частей платформы
- Улучшать механизмы контроля и защиты LLM
Почему вам может быть интересно
- Новый продукт без легаси кода и возможность внедрять современные решения
- GPU кластера с H200
Задачи
- участвовать в проектировании RAG-архитектуры под B2B-кейсы: помогать выбирать источники данных, настраивать ingestion, chunking, базовые стратегии retrieval (dense/hybrid) под руководством более опытных коллег;
- настраивать LLM/агентов под предметную область: реализовывать промпты, подключать инструменты (tool calling), работать с контекстом и базовой памятью;
- реализовывать POC/POV на данных клиента, проводить итерационные улучшения на основе метрик и обратной связи;
- строить Data Ingestion пайплайны с OCR;
- реализовывать evaluation-пайплайны: генерация тестовых наборов, запуск auto-eval, участие в human-eval;
- считать и анализировать ключевые метрики (accuracy, coverage, latency, user success rate), готовить отчеты для команды;
- участвовать в настройке мониторинга: логирование, базовые алерты, анализ неуспешных кейсов и их фиксы.
- участвовать в интеграции с инфраструктурой (Kubernetes, облако), работать с метриками и логами;
- участвовать в нагрузочном тестировании для оценки скорости инференса и необходимых ресурсов.
Требования
- опыт работы с Python (pandas, PyTorch/TF, API LLM);
- опыт работы в ML/DS/NLP от двух лет;
- опыт работы с LLM/RAG;
- понимание полного цикла ML-разработки;
- практический опыт работы с RAG: настройка retrieval, работа с embedding-моделями, векторными БД (FAISS, Qdrant, Pinecone и др.);
- понимание базовых техник улучшения качества (reranking, filtering, prompt tuning);
- опыт работы с агентными фреймворками (LangChain / LangGraph / LlamaIndex / ADK и др.);
- базовое понимание agentic-подходов и tool calling;
- опыт prompt engineering и настройки LLM под задачи;
- базовый опыт fine-tuning (или понимание подходов: LoRA, QLora, instruction tuning);
- понимание оптимизации инференса (на уровне использования инструментов: vLLM, quantization и др.);
- опыт работы с популярными ML фреймворками: tranformers, vllm, sglang, pytorch;
- SQL, базовое понимание работы с данными и пайплайнами;
- опыт деплоя сервисов (Docker, FastAPI), базовое понимание Kubernetes/облака;
- навыки логирования, мониторинга и базовых A/B-экспериментов;
- опыт работы с evaluation для ML/LLM (auto-метрики + участие в ручной оценке, LLM-as-Judge).
Мы предлагаем
Формат работы
Уровень
График работы
VK Tech
VK Tech — российский разработчик корпоративного ПО. Портфель включает облачную платформу, дата-сервисы, сервисы продуктивности и бизнес-приложения для автоматизации HR, финансовых и операционных задач.