Big Data в QIWI
Большая команда экспертов, возможность самореализации,
сложные и интересные задачи
Наша команда
У нас каждый может влиять на результат. Мы верим, что успешность зависит от вовлеченности, постоянного развития, помощи команды и поддержки
Аналитики данных
Data Scientists
Data Engineers
DevOps
Наша команда
У нас каждый может влиять на результат. Мы верим, что успешность зависит от вовлеченности, постоянного развития, помощи команды и поддержки
Аналитики данных
Data Scientists
Data Engineers
DevOps
Над чем мы работаем
Разработка микросервисов для обработки данных

Развитие общего корпоративного хранилища данных
Сегментация
пользователей

Анализ данных для поиска продуктовых инсайтов

Разработка системы рекомендаций

Анализ данных для поиска аномалий

Над чем мы работаем
Разработка микросервисов для обработки данных

Развитие общего корпоративного хранилища данных

Сегментация
пользователей


Анализ данных для поиска продуктовых инсайтов

Разработка системы рекомендаций


Анализ данных для поиска аномалий


Над чем мы работаем
Разработка
микросервисов
для обработки
данных

Развитие общего корпоративного
хранилища
данных

Сегментация
пользователей



Анализ данных
для поиска
продуктовых
инсайтов

Разработка
системы
рекомендаций


Анализ данных
для поиска
аномалий


Что мы используем
Что мы используем

Как мы работаем
Мы ценим партнерские отношения, открытость и доверие.
У нас нет недосягаемых кабинетов больших боссов —
все работают вместе и на равных
Выстроенные процессы
Мы работаем по Scrum. У команды общий беклог, 2х недельные спринты, ежедневные стендапы, ретроспектива и другие scrum мероприятия.
Цикл разработки включает в себя: разработку, code review, тестирование, вывод в продакшн и мониторинг.

Постоянное развитие
Развитие — главный и постоянный тренд QIWI. Мы регулярно проводим внутреннее и внешнее обучение для прокачки профессиональных навыков. Мы делимся экспертизой и открыты для живого общения. Посмотри как проходил наш QIWI Big Data Hackathon.


Уникальная атмосфера
Нас объединяет дух авантюризма и любопытство: нам всегда интересно, что будет, если попробовать новое. Мы всегда экспериментируем и воплощаем идеи. QIWI — это про своих людей. Это сложно описать словами, это нужно увидеть.


Как мы работаем
Мы ценим партнерские отношения, открытость и доверие.
У нас нет недосягаемых кабинетов больших боссов —
все работают вместе и на равных
Выстроенные процессы
Мы работаем по Scrum. У команды общий беклог, 2х недельные спринты, ежедневные стендапы, ретроспектива и другие scrum мероприятия.
Цикл разработки включает в себя: разработку, code review, тестирование, вывод в продакшн и мониторинг.

Постоянное развитие
Развитие — главный и постоянный тренд QIWI. Мы регулярно проводим внутреннее и внешнее обучение для прокачки профессиональных навыков. Мы делимся экспертизой и открыты для живого общения. Посмотри как проходил наш QIWI Big Data Hackathon.


Уникальная атмосфера
Нас объединяет дух авантюризма и любопытство: нам всегда интересно, что будет, если попробовать новое. Мы всегда экспериментируем и воплощаем идеи. QIWI — это про своих людей. Это сложно описать словами, это нужно увидеть.


Наш офис
Два современных просторных здания в 10 минутах от м.Чертановская. У нас много растений, стильная столовая, библиотеки и даже есть парковка
Наш офис
Два современных просторных здания в 10 минутах от м.Чертановская. У нас много растений, стильная столовая, библиотеки и даже есть парковка
Наши вакансии
Мы постоянно растем и развиваемся, поэтому всегда заинтересованы и в опытных, и в начинающих специалистах, напиши нам о себе на hr.bigdata@qiwi.com
Аналитики данных
Чем предстоит заниматься:
  • Поиск инсайтов на основе первичного анализа данных
  • Взаимодействие с Data Scientist-ами по разработке моделей классификации
  • Определение необходимых источников данных для моделей (Hadoop, Spark)
  • Поиск дополнительных признаков с целью улучшения моделей
  • Формирование гипотез для проверки на реальных данных
  • Анализ бизнес-модели сегментов
  • Интерпретация результатов работы моделей
    анализ однородности полученных сегментов
    описание вариантов клиентского поведения
    оценка объема сегментов для бизнес-заказчика
  • Оценка качества данных и формирование рекомендаций для его улучшению
  • Визуализация результатов в формате интерактивных дашбордов
  • Консультирование коллег по предметной области

Мы ожидаем от кандидатов:
Мы ищем кандидатов с разным уровнем знаний. Но будет здорово, если у тебя есть:
  • Опыт в аналитике (пользовательская, маркетинговая, продуктовая)/опыт исследователя от года
  • Опыт написания SQL-запросов
  • Опыт программирования, как минимум чтение кода (Data scientist-ы пишут на Python)
  • Опыт формирования интерактивных дашбордов (используем Tableau)
Data Scientists
Чем предстоит заниматься:
  • Сегментация и анализ клиентской базы (supervised и unsupervised), выделение паттернов поведения;
  • Анализ данных и поиск инсайтов
  • Участие в разработке системы рекомендаций
  • Разработка ML моделей

Мы ожидаем от кандидатов:
Мы ищем кандидатов с разным уровнем знаний. Но будет здорово, если у тебя есть:
  • Сильные аналитические способности, умение работать с большими объемами информации, находить общие закономерности и вникать в детали
  • Практический/теоретический опыт работы с графами — большой плюс
  • Знание основных алгоритмов ML
  • Хорошие навыки программирования (желателен опыт разработки на Python)
  • Опыт написания SQL запросов
  • Знания математической статистики и эконометрики
  • Умение и желание разбираться в бизнес составляющей данных
  • Выдвижение и тестирование гипотез
Data Engineers
Чем предстоит заниматься:
  • Разработка архитектуры доставки, хранения и обработки данных (используем Data Vault) вместе с техническими лидами проекта
  • Проработка новых ETL-технологий и подходов
  • Разработка и поддержка автоматизированных регулярных ETL процессов
  • Разработка микоросервисов, используя модели, подготовленные ML разработчиками

Мы ожидаем от кандидатов:
Мы ищем кандидатов с разным уровнем знаний. Но будет здорово, если у тебя есть:
  • Опыт написания сложных SQL запросов
  • Опыт работы с Hadoop, Spark — желателен
  • Опыт работы с большими данными
  • И конечно желание развиваться
DevOps
Чем предстоит заниматься:
  • Автоматизация распространения конфигураций (puppet, Hortonworks Ambari) в том числе и пакетов python
  • Консультирование и постановка задач в эксплуатацию
  • Консультирование разработчиков
  • Развертывание новых сервисов (развитие, исследование) инструментария Bigdata
  • Обслуживание сервисов: HDFS, Hive Metastore, HiveServer2, Ranger Admin, Ranger KMS Server, Ranger Usersync, WebHCat, ZooKeeper, SmartSense, Ambari Metrics Monitor, Ranger Tagsync, Cassandra, JupiterHub, Kafka, Airflow, TenzerFlow, PyTorch
  • Сборка образов docker для kubernetes
  • Настройка задач в TeamCity
  • Накат обновлений вышеупомянутых сервисов
  • Решение технических проблем и инцидентов
  • Поддержка и развитие тестового контура

Мы ожидаем от кандидатов:
Мы ищем кандидатов с разным уровнем знаний. Но будет здорово, если у тебя есть:
  • Высшее техническое образование
  • Опыт работы с Debian/RedHat/CentOS/Oracle Enterprise Linux, Bash\python
  • Знание основ сетевых технологий, основ работы почтовых систем, СУБД, HTTP серверов
  • Понимание процессов сборки пакетов (deb, rpm)
Узнай больше о нас