Поиск работы с нами приводит к успеху!

Поиск работы на сайте Электронной Службы Занятости Населения Москвы представляет собой эффективный инструмент для соискателей. Эта платформа предлагает актуальные вакансии, возможность загрузки резюме и фильтрацию по интересующим критериям. Это существенно упрощает процесс трудоустройства и помогает найти работу мечты быстрее.
Мы в соцсетях:

Идёт поиск вакансий...


Подождите, пожалуйста. Выполняется поиск по базе данных вакансий работодателей. Это может занять некоторое время.



Data Engineer / Разработчик Big Data / Инженер Данных

Вакансия № 30635737 от компании Платформа Больших Данных на Электронной Службе Занятости Населения Москвы.

✷ Смотрите другие предложения работы от компании Платформа Больших Данных.



☑ Основной блок:

Опыт работы: 1–3 года.

Тип занятости: полная занятость.

График работы: удаленная работа.

Зарплата: по результату собеседования.

Место работы (точный адрес): Россия, Москва, 4-я Тверская-Ямская улица, 14с1.

☑ Актуальность объявления:

Это объявление № 30635737 добавлено в базу данных: Четверг, 27 февраля 2025 года.

Дата его обновления на этом интернет-ресурсе: Вторник, 18 марта 2025 года.


☑ Статистика предложения работы № 30635737:

Прочитано соискателями - 13 раз(а);
Отправлено откликов - 0 раз(а);


☑ Репутация компании "Платформа Больших Данных":

Читайте свежие отзывы сотрудников об этом работодателе здесь!

Написать отзыв на организацию Оставить своё мнение об этой компании можно тут без регистрации и бесплатно.

☑ Подробности о вакантном месте:

Приветствуем тебя, будущий участник нашей прогрессивной команды! Мы аккредитованная IT-компания "Платформа больших данных" – разрабатываем IT-продукты для бизнеса на основе big data. Наша компания объединила данные и компетенции крупнейших игроков рынка, ВТБ, Ростелекома и множества других партнеров. Мы создали 9 уникальных IT-продуктов для бизнеса на основе bid data по различным направлениям: финансовые сервисы, геоаналитика и рекламные направления.

Мы занимаемся объединением данных о телесмотрении, интернет-логах и данных о покупках для каждого уникального пользователя и на основании этого создаем различные продукты. Один из них – аналитические отчеты об успешности рекламных ТВ-кампаний, что помогает заказчику эффективнее планировать рекламный бюджет. У нас очень большой объем данных и большой простор для работы с ними.

Стек технологий: Python, Hadoop, Spark, Hive, SQL.

Наши преимущества:

- Работа в одной из высокотехнологичных аккредитованных российских IT-компаний

- Участник Сколково

- Работу с отличной командой настоящих профессионалов (в компании более 100 человек)

- Полис ДМС со стоматологией

- Скидки на изучение английского, сессии психолога

- Гибкое начало дня

- Можно работать полностью удаленно в РФ либо гибридно (по вашему усмотрению)

- Официальное оформление с 1-ого рабочего дня

- Баланс жизни и работы, отличная команда

- Мероприятия для поддержания хорошего настроения (корпоративы, презентации новых IT-продуктов, сюрпризы)

- Современное оборудование для работы

Необходимые навыки:

Необходимые навыки:

? Отличное знание Python/Scala (Numpy, SciPy, Pandas, scikit-learn) и библиотеки pySpark

· Знание основ работы с командной строкой и базовых утилит Linux;

? Опыт работы c Spark, Hadoop, Hive

? Отличное знание SQL

? Понимание и интерес к области больших данных;

? Понимание и интерес к data science решениям и ML;

? Опыт работы с NiFi и Ariflow

? Опыт работы BI-инструментами (умение быстро спроектировать витрины статистики и поддержание их стабильной работы);

Будет плюсом:

? Опыт проектирования высоконагруженных систем

? Знание http/https, dns и предметной области работы операторов (кликстрим, система сбора логов)

? Опыт работы с ClickHouse в продуктовых задачах и понимание его преимуществ

? Опыт работы с Docker

? Опыт работы с Kafka

? Опыт настройки CI/CD в gitlab или в других системах

? Опыт работы с noSQL базами данных

? Опыт в DevOps / Тестировании

Твоими задачами станут:

Разработка архитектуры решений по загрузке данных в кластер.

· Интеграция систем обмена данными с различными источниками.

· Оптимизация вычислений и работа с узкими местами платформы

· Реализация витрин данных на Spark

· Разработка и оптимизация ETL пайплайнов

· Перенос моделей машинного обучения в прод

· Refactoring, code review

· Сбор информации по источникам данных и их структуре;

· Написание запросов pyspark;

· Анализ логов Интернет-трафика, телесмотрения и телефонии;

· Построение профилей, аудиторий и сегментов и контроль корректной поставки этих данных в личные кабинеты заказчиков;

· Создание аналитических отчётов и инструментов их автоматизированного построения;

Будем рады видеть тебя в нашей дружной команде профессионалов!

☑ О компании:

Логотип (эмблема, торговая марка, бренд) компании:
Логотип (торговая марка, бренд, эмблема) Платформа Больших Данных

☑ Отклинуться сообщением, резюме, запросить телефон, отправить жалобу (претензию):







☑ Нет ответа на Ваше обращение?