ARTICLE AD BOX
Работодатели смогут заранее узнавать о рисках увольнения персонала.
В Московском физико-техническом институте (МФТИ) и Глобальном университете Рыбакова ведется совместная работа над платформой, способной предсказывать риск увольнения сотрудников исходя из их предыдущего профессионального опыта. По мнению экспертов, в перспективе нейросети смогут прогнозировать и другие аспекты поведения подчиненных. Подробности об этих технологиях и о том, как они могут изменить отношения между работодателями и персоналом, читайте в материале «Известий».
Что известно о новой разработке МФТИ
О работе над платформой, способной предсказывать риск увольнения сотрудников, сообщила пресс-служба Московского физико-технического института. Там отметили, что над проектом под названием AMSTEF работает студентка МФТИ и Глобального университета Рыбакова Дарья Анисимова.
Платформа будет использовать машинное обучение для анализа данных сотрудников, что позволит HR-службам более эффективно управлять кадровыми ресурсами и снижать затраты, обусловленные высокой текучестью персонала. Алгоритмы платформы способны выявлять особенности поведения сотрудников, принимая во внимание их стаж, производительность труда и обратную связь относительно рабочих процессов.
«Новый проект призван восполнить отсутствие инструментов для понимания настроения и удовлетворенности сотрудников в режиме реального времени, а также снизить прямые и косвенные затраты на замену сотрудников», — рассказали в пресс-службе МФТИ.
При разработке модели прогнозирования использовались результаты интервью с представителями компаний, ранее сталкивавшихся с увольнением сотрудников. По словам Дарьи Анисимовой, в текущих условиях рынка труда удержание ценных специалистов становится всё более важным. Благодаря своему опыту в сфере анализа данных и карьерного консультирования ей удалось глубоко изучить факторы, определяющие решение сотрудников покинуть компанию.
Что еще нейросети могут сказать о сотрудниках
Помимо таких косвенных параметров, как производительность, стаж и обратная связь, могут быть использованы и другие методы — анализ данных в корпоративных средах, например в мессенджерах, почте, базах знаний и других источниках, говорит в беседе с «Известиями» инженер по информационной безопасности R-Vision Дмитрий Бурмашов.
— Эти данные могут косвенно выявить изменения в поведении сотрудников, — говорит эксперт. — Кроме того, можно собирать телеметрию с рабочих устройств, однако такой объем данных может значительно увеличить стоимость поддержки системы.
Эксперт по сетевым угрозам, веб-разработчик компании «Код безопасности» Константин Горбунов дополняет, что в качестве других вариантов применения ИИ-технологий, а также технологий Big Data в HR-сфере могут быть использованы системы рекомендаций образовательных курсов для повышения квалификации сотрудников, а также системы для повышения мотивации, отслеживания уровня вовлеченности подчиненного и его KPI.
В свою очередь, кандидат технических наук, руководитель лаборатории развития и продвижения компетенций кибербезопасности компании «Газинформсервис» Ксения Ахрамеева отмечает: если правильно обучить ИИ, то анализ поведения персонала может подсказать руководству, насколько полно тот или иной сотрудник использует свой потенциал, сколько времени действительно посвящает работе, а сколько тратит на стороннюю деятельность.
— При должном обучении анализ поведения может также выявить отклонения от нормального состояния и даже начать сигнализировать, что сотрудник заболевает и ему необходим отдых, — рассказывает специалист.
В то же время, по словам эксперта в области генеративного ИИ и продвинутой аналитики компании Axenix Владимира Кравцева, в некоторых сферах работы технологии на основе ИИ используются уже сегодня. В частности, они помогают детектировать и предотвращать нарушения, связанные с ношением средств индивидуальной защиты, в том числе касок и жилетов.
Как анализ поведения сотрудников влияет на кибербезопасность
С точки зрения информационной безопасности созданные на основе технологий машинного обучения и искусственного интеллекта системы для работы с кадрами должны разрабатываться в доверенной среде и обучаться на доверенных моделях, говорит в беседе с «Известиями» директор по персоналу Angara Security Валентина Ерохина. В противном случае они могут галлюцинировать и не помогать, а, напротив, вредить работодателю — к примеру, помогая HR набирать не тех людей и не на те позиции.
— Также не стоит забывать, что кадровые службы работают с персональными данными, а здесь при использовании непроверенных или зараженных инструментов возможны утечки конфиденциальной информации, — отмечает эксперт.
В свою очередь, руководитель R&D-лаборатории Центра технологий кибербезопасности ГК «Солар» Максим Бузинов указывает на то, что автоматическое определение высокого риска увольнения сотрудника может помочь службам информационной безопасности своевременно обратить внимание на подозрительные действия коллег.
К таким действиям, в частности, относится пересылка внутренними нарушителями большого объема чувствительных для бизнеса данных о клиентах или использование ими программ, компрометирующих компанию. Порой сотрудники, которые планируют увольнение, умышленно собирают ценную информацию и выводят ее за периметр организации, говорит эксперт.
— Такие работники могут вовлекать в инциденты нелояльных коллег или подчиненных, что повышает потенциальный ущерб от их злонамеренных действий, — подчеркивает Максим Бузинов.
С тем, что по анализу поведения сотрудника порой можно узнать его преступные планы, причем как в реальном, так и в виртуальном мире, согласна и Ксения Ахрамеева. К примеру, специалисты по кибербезопасности таким образом смогут предотвращать хищение материалов, относящихся к коммерческой тайне, или совершение каких-либо диверсий.
Какие минусы есть у контроля за сотрудниками при помощи ИИ
В основе любой ИИ-модели лежит массив данных с ограниченным набором характеристик и признаков, которые могут не учитывать специфику конкретного бизнеса и текущее положение дел в компании. Анализ и прогнозирование показателей KPI сотрудников и вероятности их увольнения, конечно, важные элементы автоматизации, но решение подобных систем должно быть проверено человеком, считает Константин Горбунов.
— К примеру, только пришедший в компанию junior-разработчик может показаться такой системе более эффективным, чем уже давно работающий senior, поскольку первый пишет больше кода, активно знакомится с коллегами в рабочих чатах и так далее, однако для компании они оба ценны: junior —теми объемами работы, которую он выполняет, а senior — знанием проекта, опытом и пониманием специфики бизнеса, — говорит собеседник «Известий».
Каждый человек индивидуален, машина не может считывать все эмоции и переживания, настроение и нюансы человеческих взаимоотношений, соглашается Валентина Ерохина. Многое нельзя отдавать на откуп машинам, ведь они могут интерпретировать ту или иную человеческую реакцию как единственно верную без учета психологии.
По мнению Дмитрия Бурмашова, контроль за сотрудниками при помощи ИИ потенциально способен привести к нарушению их прав. В частности, бизнес может манипулировать данными, нарушая права сотрудников, ссылаясь на информацию из подобных систем, которая может быть недостоверной из-за особенностей машинного обучения и негарантированной точности результатов.
— Основные риски контроля при помощи ИИ — это чрезмерное отслеживание действий людей и анализ их поведения, а также возможность использования полученных при помощи него данных злоумышленниками в своих целях, — заключает Ксения Ахрамеева.