Big data: работа с большими данными в промышленности
При помощи технологий, построенных на использовании big data, промышленные компании стремятся снизить себестоимость производимых продуктов, оптимизировать логистику, минимизировать простой складов и оборудования, уменьшить влияние человеческого фактора на производственные процессы. Однако не всегда полученный эффект соответствует ожиданиям, а собрать больше данных — не означает получить максимум информации о том, как работает предприятие.
Что сдерживает применение big data в отечественной промышленности и как технология может помочь производствам перенастроить работу в новых экономических реалиях, выясняли участники пленарной сессии «Опыт и перспективы управления предприятиями через данные», которая прошла на выставке «Металлообработка‑2024» в рамках конференции «Эффективное производство 4.0», организованной ГК «Цифра».
Оценка готовности отрасли
В ходе мероприятия руководитель проектов практики «Цифровая трансформация» АО «Стратеджи Партнерс Групп» (консалтинговая компания Strategy Partners) Маргарита Гришанина поделилась результатами опроса, который специалисты провели среди сотрудников российских промышленных предприятий, чтобы оценить, как те используют данные для принятия управленческих, производственных и бизнес-решений.
Как показали результаты исследования, чаще всего необходимость сбора и анализа большого объёма данных связана у респондентов с мониторингом, техническим обслуживанием и ремонтом оборудования (ТОиР), построением цифровых двойников отдельных участков или всего предприятия, а также с контролем качества готовой продукции.
Перед началом исследования специалисты Strategy Partners провели несколько глубинных интервью представителей целевой аудитории. 70% опрошенных отметили, что в их компании есть «озеро данных» (data lake — хранилища большого объёма неструктурированных данных из одного источника, — прим. ред.), однако далеко не везде эту информацию используют в работе. Есть среди российских промышленников и те, кто пока не приступил к реализации проектов, построенных на технологии big data.
Среди причин участники опроса назвали в первую очередь сложность и высокую стоимость внедрения таких решений, отсутствие необходимости в дополнительной детализации данных для аналитики, а также длительный временной горизонт планирования изменений.
Однако, по словам Маргариты Гришаниной, основное препятствие кроется в том, что на начальном этапе предприятиям сложно оценить, каким будет реальный эффект от внедрения такого сложного инструмента. К тому же опрошенные специалисты отмечали отсутствие положительных примеров применения big data на релевантных рынках, которые помогли бы им понять, каким может быть этот эффект, и нехватку квалифицированных провайдеров в отрасли.
Компании, реализующие проекты с использованием больших данных, также сталкиваются с рядом трудностей. Большая их часть связана с исходными данными: около трети опрошенных заявили, что в их фирме более 50% информации вводится вручную, из-за чего возникают вопросы к её качеству и достоверности.
«Что интересно, даже лидеры рынка, которые давно работают с данными, отмечают сложности с их качеством, хотя у них минимальный процент информации вводится вручную. Ещё одна проблема — данных слишком много, и не всегда понятно, какие из них нужны для того, чтобы получить бизнес-эффект.
С этим сложно разбираться, и у сотрудников на производстве просто не хватает времени. В результате они смотрят только на те данные, которые для них понятны и касаются их KPI (ключевых показателей эффективности). Примерно в половине компаний нет подразделений для работы с аналитикой», — поделилась результатами исследования Маргарита Гришанина.
Несмотря на все сложности, порядка 80% специалистов, опрошенных Strategy Partners, отметили, что эффект от внедрения big data есть, и прежде всего он связан с ускорением принятия решений. Следующие шаги, которые готовы сделать пользователи, — доработка исходных данных до нужного качества, обучение персонала для принятия решений с использованием данных и усовершенствование систем предикативной аналитики.
Когда данные работают на вас
Опытом трансформации работы производственного предприятия с применением технологии big data на сессии поделился директор центра экспертизы ТОиР ООО «Деснол Софт Проджект» Денис Труфакин. Компания предлагает решения в области цифровизации процессов управления различными активами и процессами промышленных организаций, в том числе техобслуживанием и ремонтом оборудования.
Компания является партнёром фирмы «1С», поэтому система адаптирована для этой платформы, однако по желанию заказчика может быть объединена с любой мастер-системой, включая зарубежные, которые до сих пор эксплуатируют некоторые предприятия в России.
По опыту специалистов «Деснол Софт», применение цифровых продуктов на основе больших данных позволяет добиться лучших результатов в четырёх областях: в управлении общей эффективностью оборудования, потоком создания ценностей или маржинальной прибылью от объёмов производства; в оптимизации затрат на техобслуживание, ремонт и услуги; в снижении трудозатрат и повышении эффективности организационной структуры предприятия; в управлении оборотным капиталом.
Как показывает опыт сотрудничества компании с промышленными предприятиями, общая эффективность оборудования через повышение коэффициента технической готовности может вырасти на 3%, а затраты на техническое обслуживание и ремонт, напротив, уменьшиться на 16%. Лучший результат по снижению оборотного капитала показала одна из сервисных организаций — 59%. Такого результата удалось добиться благодаря различным организационным трансформациям, построенным на анализе полученных данных, которые приводили к выравниванию нагрузки персонала, оптимизации трудозатрат и повышению загрузки производства.
«Круговорот данных позволяет сделать управление активами более осмысленным. Они не содержатся в головах отдельных сотрудников и не передаются от человека к человеку», — подчеркнул Денис Труфакин.
Актуальность применения цифровых систем управления повысилась после 2022 года, когда промышленные предприятия столкнулись со сложностями в приобретении импортных товаров, включая оборудование и комплектующие. Это значительно усложнило процессы техобслуживания и ремонта производственной базы.
В качестве примера того, как решение на основе big data может помочь в этом случае, директор центра экспертизы ТОиР «Деснол Софт» поделился опытом одного из клиентов компании — предприятия, имеющего в своём активе более 78 тыс. объектов ремонта. За счёт накопления и анализа данных о работе этого оборудования и техники специалистам удалось повысить его надёжность на 3%, а затраты на ТОиР снизить на 5%.
Также сократились трудозатраты в подразделениях предприятия (–20%) и операционные расходы на ремонт оборудования за счёт управления лимитами (–12%). Отдельно была выстроена работа с машинами: здесь стоимость запчастей выросла настолько, что поставила под вопрос рентабельность их эксплуатации.
«Все подобные проекты перемещались в отдельную корзину, и работа велась индивидуально через подбор аналогов, импортозамещение, взаимодействие с поставщиками. Удерживалась та планка затрат, при которых маржинальность была адекватной», — пояснил Денис Труфакин.
Также он поделился наблюдением о том, как промышленники подходят к применению цифровых инструментов учёта и управления бизнес-процессами: пока план выполняется, руководство зачастую не видит необходимости в том, чтобы получать данные о загруженности оборудования и персонала. Но, как только производительность снижается, встаёт вопрос о количестве и причинах простоев.
По словам Дениса Труфакина, чтобы добиться максимальной эффективности в управлении предприятием, необходимо собирать как можно больше данных о его работе и глубже погружаться в них.
«Есть несколько уровней, и данные верхнего уровня — очень крупные, они позволяют добиться первого витка эффективности. Но, только дойдя до четвёртого витка, мы получили коэффициент технической готовности порядка 96%. Постоянно увеличивая количество данных и частоту их получения, мы добивались конкретных результатов для бизнеса», — подчеркнул спикер.
Частота сбора и чистота данных
Критическим подходом к использованию технологии big data поделился на сессии заместитель начальника управления информационных технологий и главный архитектор решений ИТ АО «Северо-Западный Региональный Центр Концерна ВКО «Алмаз-Антей» Обуховский Завод» Александр Авербух. Структура предприятия очень обширна и является результатом объединения нескольких организаций.
Как пояснил докладчик, за три года компания провела шесть полноценных слияний, в результате которых завод объединил принципиально разные структуры со своими специфичными способами организации производства. В их числе — сам Обуховский завод, классическое машиностроительное предприятие, Завод радиотехнической аппаратуры — типичное приборостроительное производство и научно-исследовательские институты.
«Чтобы управлять предприятием через данные, надо разобраться, что мы должны с ними сделать. Шесть проектов слияния дали нам достаточно богатый опыт по мэппингу (data mapping — процесс сопоставления исходных данных и данных для загрузки, — прим. ред.) и слиянию данных, которые являются одинаковыми по сути и совершенно разными по структуре. Наш опыт показал, что в чистом виде, без преобразования и трансформации, их совместное использование практически невозможно», — поделился наблюдениями Александр Авербух.
Также он прокомментировал опыт коллег, использующих мастер-системы. В своей практике Обуховский завод тоже прибегал к такому решению, однако в итоге специалисты пришли к выводу, что, по образному выражению г-на Авербуха, «вскормили монстра».
«Мастер-системы, которые оперируют большими объёмами данных, достаточно сложны в эксплуатации. Они большие, тяжёлые, трудно копируемые. Если семь-восемь лет назад мы понимали, что у нас может быть „ночное окно” для учётной системы, когда она что‑то пересчитывает, копирует, и никто её не трогает, то на сегодняшний день в некоторых частях производственного учёта у нас этого „окна” нет.
Поэтому мы приняли новую стратегию работы ИТ-службы, и теперь как шинно-ориентированное предприятие развиваем отдельные сервисы и системы для хранения данных, сливая их через шины туда, где они нам нужны. Стараемся не создавать большие конгломераты, поскольку в нынешних условиях наращивать мощности „железа” достаточно проблематично. Дело не только в деньгах, но и в том, что определённые компоненты физически трудно закупать, а размещать ещё труднее», — пояснил свою позицию Александр Авербух.
Принцип разумной достаточности
В целом опыт работы компании с большими данными показал, что большая их часть неоднородна, получена в различные исторические периоды, и различия можно выявить даже в описании одного и того же бизнес-процесса для разных задач автоматизации.
Также специалисты установили, что для решения разнообразных задач им приходится использовать различные технологические платформы. Кроме того, спикер поделился критическим взглядом на применение искусственного интеллекта в работе с большими данными на производственных предприятиях, особенно в сфере оборонного комплекса.
«Искусственный интеллект достаточно привлекателен, но связан с рисками и не всегда может быть использован. К тому же мы стеснены в производительности аппаратного обеспечения. Подытоживая наш опыт, мы бы рекомендовали управленческие модели формировать с помощью естественного интеллекта, а верифицировать — с помощью искусственного и накопленных массивов данных, потому что на них хорошо видны сильные и слабые места», — резюмировал Александр Авербух.
Схожую точку зрения высказал директор департамента по цифровизации госкорпорации «Роскосмос» Андрей Потапов, выступая на сессии, посвящённой практическому опыту предприятий в области цифровой трансформации промышленности. Он подчеркнул, что повысить эффективность данных не значит собрать как можно больший объём.
В ходе доклада он сформулировал своего рода лозунг для тех, кто планирует работать с big data: «Важно не собрать лишнее и не потерять нужное». Другими словами, путь к централизации и повышению эффективности данных лежит через их сокращение.
«Если вы возьмёте любую корпорацию и посмотрите на её запрос, там в „голове” мусора процентов 60, дублирование — троекратное. Централизация позволит этого избежать, а большие данные помогут сделать другое. Скажем, где‑то на заводе сотрудники начинают применять аддитивную технологию напрямик, как ночью по тайге. Ни у кого нет такой технологии, и „списать” не у кого. Опыт, который получат эти люди, — по сути, „мусорные” данные про то, как не надо делать, но именно они являются колоссальным национальным достоянием, поскольку показывают, какой дорогой идти не стоит. И те, кто пойдёт следом, так делать не будут. Вот что такое big data, а не бездумное сборище всего на свете», — поделился Андрей Потапов.
Что касается искусственного интеллекта, то его, по мнению директора департамента по цифровизации «Роскосмоса», наиболее рационально использовать для обработки входных данных.
«Например ГОСТов, которых в отрасли тысячи, чтобы обеспечить их чистоту, непротиворечивость и связанность в системе управления требованиями, — вот это интересная задача. И это тоже немного про управление данными. Нас не беспокоят PLM и ERP, по большому счёту. Достаточно, если они будут среднего класса в стране, а мы точно начнём со среднего класса, потому что для вхождения в тяжёлый класс нам понадобится ещё лет 10.
Операционное взаимодействие решится быстро, было бы желание. Там нет огромных потоков данных и алгоритмических сложностей в их обработке. Разумная достаточность очень быстро приведёт вас к нужному эффекту. Есть масса других задач, философских и нестандартных, которые никто не решал», — акцентировал Андрей Потапов.
Больше данных — больше кадров
Интерес к технологии рождает спрос на квалифицированных специалистов, которые могут помочь в её интеграции на производстве. Как мы помним из доклада Маргариты Гришаниной, в случае с data-направлениям ситуация не слишком радужная — отсутствие квалифицированных провайдеров является одной из причин, почему некоторые промышленники опасаются погружаться в область больших данных. По данным платформы онлайн-рекрутинга hh.ru, аналитики больших данных входят в топ‑5 востребованных профессий в ИТ в 2024 году.
В числе обязательных требований к таким специалистам указаны владение языками программирования (Python, R, SQL), умение работать с базами данных и понимать их структуру, знание основ машинного обучения и статистических методов анализа данных, аналитическое мышление и умение представлять данные в понятной форме с помощью графиков, диаграмм и других инструментов визуализации.
Помимо хард-скиллов, необходимых для выполнения профессиональных обязанностей, для аналитиков big data прописаны и софт-скиллы: проблемное мышление, адаптивность, ориентация на результат и коммуникативные навыки (главным образом — умение объяснять сложные концепции простым языком).
По данным исследования hh.ru и разработчика e-commerce решений Aero, за первое полугодие 2023 года количество резюме data-соискателей выросло на 105%. А весной 2024 года специалисты «Авито Работы» отметили рост общего спроса работодателей на сотрудников в ИТ-отрасли на 90% по сравнению с весной 2023 г. На hh.ru только за июнь было открыто 101,5 тыс. вакансий в сфере информационных технологий.
Ассоциация «РУССОФТ», служба исследований hh.ru и рекрутинговая компания GeekSource собрали и проанализировали данные о структуре спроса и предложения по специалистам в области разработки ПО в зависимости от их опыта и квалификации, а также о фактическом найме таких специалистов. Результаты исследования показали, что на рынке труда произошло стремительное увеличение количества соискателей, не имеющих опыта. При этом работодатели всё чаще ищут опытных специалистов со стажем в разработке ПО не менее трёх лет.
Эту тенденцию подтверждают результаты изучения вакансий аналитиков данных, размещённых на сайте hh.ru с февраля по май 2024 года, которое провела наставница на курсе «Аналитик данных» платформы «Яндекс Практикум» Ольга Матушевич. Её исследование показало, что работодатели предпочитают нанимать аналитиков с опытом работы от года до трёх лет и более.
«Джуны (специалисты без опыта работы, — прим. ред.) всё‑таки нужны. Но кандидатам с минимальным опытом уже намного легче найти работу: и выбор больше, и конкуренция ниже. Поэтому наиболее грамотная стратегия для начинающего специалиста — изо всех сил добирать этот опыт через стажировки, пет-проекты и хакатоны», — рекомендует наставница.
«Структура спроса и предложения среди data-вакансий кардинально изменилась. Прошлые junior-специалисты выросли, middle- и senior-сотрудники (с опытом работы от трёх до шести лет и более шести лет соответственно, — прим. ред.) стали работать за рубежом, а выходящие на рынок новички их заменить, к сожалению, не могут из-за отсутствия практического опыта. Наибольший интерес компании проявляют к middle-специалистам, и их зарплатные ожидания ощутимо растут. Иногда эти ожидания не соответствуют квалификации.
В целом происходящее можно назвать „инфляцией грейдов”: junior-специалисты часто позиционируют себя как middle и успешно проходят первые этапы собеседований. Переквалифицировавшиеся учитывают свой прошлый стаж как релевантный и тоже выставляют себя как middle или даже senior-специалистов, в то время как опыт работы по data-профессии у них отсутствует. Это большая проблема, и я думаю, что довольно скоро она будет нивелирована самим рынком», — прокомментировал положение дел chief data officer ООО «Аэроком» (Aero) Вячеслав Жуков.
Среди ИТ-специалистов довольно популярна удалённая работа, однако большая часть работодателей хочет видеть сотрудника в офисе. Анализ вакансий на hh.ru, выполненный Ольгой Матушевич, показал, что такие условия прописаны только в 17,6% вакансий.
«Сменный и гибкий графики у работодателей не популярны. Распределение зависит от грейда: чем больше опыт у специалиста, тем больше у него возможностей найти удалённую работу. Но количество офисных вакансий в любом случае преобладает. По результатам исследования можно смело заявить, что работодатели на hh.ru почти не ищут стажёров, а также аналитиков данных на проектную или частичную занятость», — делает вывод наставница «Яндекс Практикума».
С кадровой проблемой столкнулись специалисты Всероссийского научно-исследовательского института автоматики им. Н. Л. Духова (входит в структуру госкорпорации «Росатом») при разработке и запуске собственной системы управления предприятием. Целью её внедрения была оценка внутренних операционных процессов и использование полученных данных для планирования загрузки производства.
«Когда мы разрабатывали первую версию системы, всё начиналось с очень маленького ресурса. Каждый программист был ещё и аналитиком, и тестировщиком, и ему принадлежала разработка отдельного модуля. В результате мы столкнулись с тем, что, когда сотрудник уходит в отпуск или на пенсию, система остаётся бесхозной. Когда вы начинаете разработку, то программист и аналитик в одном лице — допустимая история.
Но когда переходите к покрытию всех потребностей организации, этого уже недостаточно. Как мы знаем, процессу автоматизации сначала все сопротивляются, а потом это начинает нравиться, и хочется всё больше и больше, поэтому увеличивается объём доработок и покрытия», — поделилась опытом заместитель начальника ФГУП «Всероссийский научно-исследовательский институт автоматики им. Н. Л. Духова» Наталья Шустова.
Она отметила, что теперь в компании разделяют аналитиков, программистов и тестировщиков, но набрать персонал на закрытое предприятие достаточно сложно, особенно с учётом перегретости рынка ИТ.
«Тем не менее есть молодые люди, которые готовы с нами работать, поскольку проект очень интересный: много процессов, мы предлагаем очень хорошие инструменты. Стараемся идти по принципу подбора двух-трёх человек, идейных, хорошо подкованных технологически, которые умеют общаться с людьми и поддерживать здоровую атмосферу в команде. Их нужно мотивировать и сохранять», — отметила в заключение Наталья Шустова.
С чем связаны ключевые риски использования big data в промышленности? Как обстоят дела на российском рынке больших данных в условиях ограничений? Читайте на нашем портале.
Текст: Мария Кармакова