За 2 года команда GlobalCareer подобрала 30 инженеров, аналитиков и разработчиков, активно использующих Hadoop. Большая часть кандидатов получили предложения о работе от крупного банка, развивающего новый IT-проект. Сегодня рассказываем, что помогло нам найти столь редких специалистов.
Hadoop — набор программ и процедур с открытым исходным кодом. Проект разработан Apache Software Foundation на основе технологий MapReduce и Google File System Storage в 2006 году. Сегодня является одним из основных инструментов для управления огромными объемами информации. За Hadoop-специалистов в России конкурируют как IT-компании, так и телеком, финтех-проекты, розничные сети.
Задача
Наш постоянный клиент запустил новый масштабный проект по созданию витрин данных и реализации интеграционных процессов между аналитическими и продуктовыми системами компании-заказчика и её партнёров. Предстояла работа с огромным объёмом информации, поэтому требовались специалисты, имеющие опыт работы с Hadoop. Подобных кандидатов, на открытом рынке практически нет, и поиск по традиционным источникам был неэффективным, поэтому заказчик обратился к нам в агентство за помощью в поиске сотрудников.
В рамках данного проекта наши консультанты подбирали таких специалистов, как:
- Hadoop-инженеры, с опытом разработки на Java и специализирующиеся на КХД,
- Java-разработчики, знакомые с экосистемой Hadoop,
- Аналитики, использующие Hadoop на проектах Big Data.
Алена Дараган, консультант GlobalCareer, поясняет: «При поиске инженеров и разработчиков мы смотрим, обладают ли они навыками создания гибких, масштабируемых, управляемых систем, способных выдержать огромные нагрузки, большие объемы данных. На вакансии аналитиков отбираем кандидатов с серьёзной математической подготовкой: анализ big data невозможен без отличного знания статистики, теории вероятности и т. д.».
Процесс работы
Знание технологии Hadoop может встречаться в резюме специалистов самого разного профиля, что усложняет поиск. Мы сформировали команду из рекрутёров, имеющих опыт закрытия подобных вакансий, и выстроили следующую стратегию работы:
- изучили собственную базу (более 2 млн. резюме) и выбрали из неё около 700 российских специалистов, обладающих подходящими компетенциями — Hadoop, Java/Python/R, SQL, Kafka, Spark, Kassandra и ETL-процессы, — а также кандидатов, которые когда-либо работали в проектах, связанных с Big Data;
- проанализировали подписчиков Телеграм-каналов @hadoopusers, @datajobschannel, @datajobs и т. п. и сопоставили со своей базой данных;
- изучили профили авторов публикаций и комментаторов по тематике Big Data на профессиональных интернет-площадках;
- расширили воронку за счёт молодых специалистов, которые активно участвуют в митапах и хакатонах по тематике Big Data.
С каждым кандидатом, подходящим под профили наших вакансий, мы обсуждали проект и карьерные ожидания, просили порекомендовать коллег с нужными нам компетенциями.
Результат
Мы подобрали требовавшихся клиенту Hadoop-специалистов благодаря максимальному вовлечению команды и использованию множества источников. Длительность подбора — 8 месяцев. На данный момент все вакансии в этот проект успешно закрыты.
В базе GlobalCareer находится больше 2 млн резюме IT-специалистов: начиная от опытных разработчиков со стандартным набором компетенций, заканчивая профессионалами с редкими hard и soft skills. Оставьте заявку, и мы найдём для вас нужного кандидата.