13.03.2026 10:56
В каждой третьей компании (34%) HR-процессы автоматизированы с помощью ИИ-ассистентов и ИИ-агентов, показывает свежее исследование СберАналитики. HR-специалистами наиболее востребованы такие инструменты, как система отслеживания откликов, скрининг резюме, ранжирование кандидатов, видеоинтервью с автооценкой, аналитика текучести и вовлеченности, рекомендации по обучению.
Основные риски связаны с тем, что эти инструменты работают с массивами персональных и поведенческих данных. На фоне широкого проникновения ИИ в HR-практику нарастает внимание регуляторов к автоматизированным решениям в трудовой сфере: в России, например, этот аспект был затронут в ФЗ‑152 «О персональных данных».
В частности, большое внимание уделяется прозрачности алгоритмов, принимающих решения, которые затрагивают права работников и соискателей. Использование ИИ-инструментов требует от работодателей не только корректной обработки персональных данных сотрудников, но и готовности пояснять кадровые решения, принятые на основе алгоритмов. Например, в случае отказа в приеме на работу или повышения в должности.

Какие данные о сотрудниках обрабатывает AI
В HR‑AI‑инструменты попадают следующие категории данных:
- Персональные данные: ФИО, контакты, дата рождения, гражданство, образование, история работы.
- Поведенческие данные: метрики продуктивности, активность в корпоративных системах, KPI, участие в проектах.
- Психометрические данные: результаты тестов, оценка софт‑скиллов, поведенческие опросники.
- Видео- и аудиоданные: записи видеоинтервью, их расшифровки, голосовые отклики.
- Данные из корпоративных систем: LMS, CRM, таск‑трекеры, внутренние соцсети, обратная связь 360.
Риски и как их избежать
Риск утечки персональных данных
Риск утечки персональных данных сотрудников при интеграции с внешними сервисами или использовании их для дообучения моделей без информированного согласия людей – основная опасность использования ИИ в HR. Компании это грозит не только штрафами со стороны регуляторов, но и репутационным ущербом и падением доверия со стороны работников и соискателей.
Как избежать утечек данных:
- Назначьте ответственных за защиту данных сотрудников: в их обязанности будет входить надзор за корректной обработкой данных и соблюдение регуляторных требований.
- Обучение сотрудников: регулярно проводите тренинги для сотрудников по вопросам прав и обязанностей в области защиты данных.
- Меры по защите самих данных: используйте шифрование, анонимизацию и строгий контроль доступа.
Вероятность алгоритмической дискриминации
Это еще один значимый фактор риска. Речь идет о воспроизведении моделью предвзятостей, заложенных в исторических данных. Например, если компания статистически реже нанимала женщин на технические роли или людей старше 45 лет, модель «учится» оценивать такие профили как менее предпочтительные. Это не только нарушает ст. 3 ТК РФ (прямой запрет дискриминации при приеме на работу по полу, возрасту, месту жительства и семейному положению), но и сужает воронку талантов, которые могли бы усилить команду и создать реальную бизнес-ценность.
Такая дискриминация может быть незаметной для рекрутера, если он видит только итоговый рейтинг резюме без понимания, какие признаки и как именно повлияли на результат. Во избежание правовых споров и репутационных потерь компаниям необходимо придерживаться механизма human-in-the-loop (вовлечения экспертов-людей в процессы принятия решений ИИ) и внутренних регламентов этичного использования ИИ в HR.
Как избежать дискриминации ИИ-алгоритмами
- Не доверяйте алгоритму решения, которые существенно затрагивают права человека (наём, увольнение, значимые изменения условий труда) без возможности пересмотра выводов модели специалистом.
- Исключите из данных для обучения модели чувствительные признаки (пол, возраст, семейное положение, национальность), которые могут стать причиной дискриминации.
- Проводите регулярный аудит моделей: периодический пересмотр алгоритмов, тестирование на новых данных, ручная проверка кейсов.
Недоверие сотрудников к ИИ-алгоритмам
Еще один важный по значимости фактор. Перспектива, что алгоритм может решить судьбу карьеры сотрудника, многим может казаться пугающей, вплоть до саботажа HR-инициатив по автоматизации бизнес-процессов.
Важно объяснять сотрудникам и кандидатам:
- какие именно данные анализирует AI;
- какова роль человека: что окончательное решение принимает специалист, а алгоритм — только инструмент поддержки;
- как оспорить результат: кому можно задать вопрос, запросить пересмотр, исправить данные.
Базовый чек-лист безопасного использования ИИ в HR
При внедрении AI-инструментов в процессы необходимо прописывать строго требования к недискриминации, аудиту моделей и формированию отчетности.
1. Контроль данных и доступов. Определите, какая информация в компании является конфиденциальной и запретите ее использование в ИИ-системах.
2. Проверка ИИ-провайдеров. Изучайте политику конфиденциальности ИИ-сервисов в отношении пользовательских данных. Обращайте внимание на бессрочное хранение данных и передачу в другие юрисдикции.
3. Критичное использование результатов ИИ. Проверяйте код, тексты и ответы чат-ботов на ошибки, уязвимости и недостоверную информацию.
4. Учет бизнес-рисков по направлениям. В разработке: проверяйте код на уязвимости и лицензии. В маркетинге: оценивайте риски авторского права и этики. В продажах и поддержке: контролируйте корректность и контекст ответов чат-ботов.
5. Системное обучение сотрудников. Обучайте безопасному использованию ИИ, юридическим рискам и проверке результатов. Закрепляйте знания через внутренние мастер-классы и тренинги.
AI как инструмент справедливости, а не риска
AI в HR обладает огромным потенциалом в области оптимизации найма, обучения, управления эффективностью и вовлеченностью. Однако этические проблемы, которые ставит ИИ перед HR-специалистами (предвзятость, непрозрачность работы алгоритмов, обеспечение конфиденциальности данных), требуют проактивного подхода к решению.
Руководители HR-отделов должны уделять приоритетное внимание этике использования ИИ, привлекать специалистов из разных сфер (от юридического департамента до разработки) и инвестировать в обучение персонала.
Этический подход — это конкурентное преимущество на рынке работодателей: кандидаты и сотрудники больше доверяют компании, которая честно говорит об используемых ИИ-инструментах и следит за сохранностью личных данных сотрудников.
Автор: Ольга Королева, руководитель направления HR People Partners в Битрикс24
Иллюстрации: Freepik
Читайте также:
- Опасная зависимость от ИИ: что должны учитывать HR-специалисты
- Когда HR-служба работает круглосуточно: опыт внедрения AI-агентов в крупных корпорациях
- Адаптация сотрудников на потоке: как компании масштабируют рост в 2–3 раза без увеличения HR-штата
Подписывайтесь на наш Telegram-канал и читайте уникальные HR-новости!
Копирование и любая переработка материалов с сайта neohr.ru запрещены
Предложить свою статью для публикации
Комментарии
Комментариев пока нет