Бобров Владимир Анатольевич, руководитель практики цифровая трансформация маркетинговой группы «Текарт»:
— Применение ИИ-инструментов в HR является привлекательным для бизнеса по целому ряду причин. Во-первых, они позволяют эффективно автоматизировать рутинные задачи, которые относительно недавно могли выполняться только сотрудниками. Во-вторых, принимать более обоснованные решения на основе данных. В-третьих, существенно ускорять выполнение масштабных задач, что особенно важно для компаний с большими штатами, и так далее.
При этом использование ИИ-инструментов в управлении человеческими ресурсами сопровождается появлением новых специфических рисков и вопросов, которые требуют отдельного внимания и изучения, т. к. цена ошибки может оказаться достаточно высокой.
К первой категории рисков можно отнести те, которые возникают вследствие специфики самих принципов работы ИИ моделей.
К ним относятся:
– риски проявления предвзятости, которые возникают, например, вследствие обучения ИИ на данных, которые были недостаточно хорошо подготовлены или являются недостаточно разнообразными. Также предвзятое поведение ИИ-модели может быть вызвано или усилено логикой алгоритма.
– риски галлюцинации ИИ, т. е. ложных ответов, которые выглядят правдоподобно. Могут возникать при использовании LLM моделей.
– непрозрачность работы ИИ-моделей. Этот фактор может спровоцировать появление вопросов и сомнений по поводу справедливости работы ИИ-инструментов, сложности с обоснованием принятых решений.
Вторая группа рисков связана с соблюдением нормативных требований по использованию ИИ и с рисками нарушения других законодательных норм.
Сейчас процесс формирования законодательной базы для ИИ идет во всем мире. Так, регламент Европейского союза об искусственном интеллекте или AI Act, принятый в 2024 году, регулирует деятельность поставщиков систем ИИ и организаций, использующих ИИ в профессиональной деятельности. Он классифицирует системы ИИ по уровням риска (неприемлемый, высокий, ограниченный, минимальный).
В США применение ИИ в сфере HR регулируется на уровне отдельных штатов. Так, в 2023 году в Нью-Йорке был принят первый в стране закон, обязывающий работодателей проводить ежегодные проверки предвзятости автоматизированных инструментов принятия решений о найме. А в Иллинойсе работодатели, которые просят кандидатов записывать видеоинтервью и анализируют записи с помощью ИИ, должны до собеседования уведомлять соискателей об использовании ИИ и получать согласие на оценку с помощью этой технологии. Также они должны объяснить, какие общие характеристики используются системой для оценки соискателей.
В нашей стране пока нет подобных законов, но работа в этом направлении ведется. Так, с 2021 года у нас принят Кодекс этики искусственного интеллекта, разработанный при участии Альянса ИИ, Аналитического центра при Правительстве РФ и представителей бизнеса. А в августе 2025 года издание «Ведомости» сообщило, что Минцифры разработало проект концепции развития регулирования отношений в сфере технологий ИИ до 2030 г. Согласно документу, будущее регулирование этой технологии должно базироваться на человекоориентированном подходе, принципе технологического суверенитета, уважении автономии и свободы воли человека, а также запрете на причинение вреда человеку и недопущении «очеловечения» технологий.
К этой группе также относятся риски нарушения других законодательных норм. Так, работа ИИ систем, используемых в HR, может быть связана с обработкой персональных данных, что создает новый риск утечек ПД или несоблюдения закона о персональных данных, в том числе устанавливающего правила их сбора, хранения и использования.
Другие риски при использовании ИИ могут быть связаны с возможными нарушениями требований трудового законодательства.
Третья категория рисков связана с ненадлежащим, плохо контролируемым или не- этичным использованием ИИ инструментов в сфере управления человеческими ресурсами.
Возможности, которые технология предоставляет для анализа и получения информации из поступающих данных, являются очень мощными, поэтому ошибки и неправильные решения при использовании ИИ могут нанести серьезный ущерб репутации бизнеса, оказать негативное воздействие на культуру компании, повлиять на вовлеченность сотрудников и их доверие.
И, наконец, к четвертой категории рисков относятся проблемы, связанные с возможностью злоупотреблений и манипуляций ИИ системами со стороны соискателей, например, для реализации некорректных механик при трудоустройстве, получения нелегитимных преференций или завышенных оценок, извлечения из систем конфиденциальной информации и т.д.
Отдельно стоит отметить возможность возникновения зависимости бизнеса от поставщиков ИИ решений для управления персоналом. Здесь надо учитывать тренды к консолидации технологических компаний и их постоянную потребность получать все больше данных. При этом их продукты часто не обеспечивают прозрачности в отношении того, как именно они работают, поскольку сами алгоритмы являются собственностью компании.
Заключение
Сложность и возможности ИИ инструментов увеличиваются очень быстро. И, пожалуй, самый главный сдвиг за последние несколько лет заключается в том, что они все чаще начинают приобретать самостоятельное значение, полностью заменяя людей в определенных задачах как агенты.
В сфере HR подобная ситуация в первую очередь осложняется вопросами этичного ис- пользования ИИ с точки зрения предвзятости, конфиденциальности и прозрачности – о чем говорилось выше. Но вместе с тем уже видны риски и более высокого порядка, связанные с увеличением цифровой дистанции между компаниями и людьми (соискателя- ми и персоналом), уменьшением эмпатии и возможной обратной реакции со стороны работников, определенном обесценивании человеческой индивидуальности сотрудников.
Безусловно уже в обозримом будущем появятся законодательные нормы этичного ис- пользования ИИ и бизнесу нужно к этому готовится. Описание этических рамок поможет укрепить доверие к этим инструментам и минимизировать непредсказуемые последствия от их применения.
Для размещения отзывов необходимо авторизоваться