ПОДПИСАТЬСЯ НА РАССЫЛКУ
Главная \ HR-менеджмент \ Этика AI в HR

Этика AI в HR

« Назад

13.03.2026 10:56

В каждой третьей компании (34%) HR-процессы автоматизированы с помощью ИИ-ассистентов и ИИ-агентов, показывает свежее исследование СберАналитики. HR-специалистами наиболее востребованы такие инструменты, как система отслеживания откликов, скрининг резюме, ранжирование кандидатов, видеоинтервью с автооценкой, аналитика текучести и вовлеченности, рекомендации по обучению.

Основные риски связаны с тем, что эти инструменты работают с массивами персональных и поведенческих данных. На фоне широкого проникновения ИИ в HR-практику нарастает внимание регуляторов к автоматизированным решениям в трудовой сфере: в России, например, этот аспект был затронут в ФЗ‑152 «О персональных данных».

В частности, большое внимание уделяется прозрачности алгоритмов, принимающих решения, которые затрагивают права работников и соискателей. Использование ИИ-инструментов требует от работодателей не только корректной обработки персональных данных сотрудников, но и готовности пояснять кадровые решения, принятые на основе алгоритмов. Например, в случае отказа в приеме на работу или повышения в должности.

AI_hr_risky

Какие данные о сотрудниках обрабатывает AI

В HR‑AI‑инструменты попадают следующие категории данных:

  • Персональные данные: ФИО, контакты, дата рождения, гражданство, образование, история работы.
  • Поведенческие данные: метрики продуктивности, активность в корпоративных системах, KPI, участие в проектах.
  • Психометрические данные: результаты тестов, оценка софт‑скиллов, поведенческие опросники.
  • Видео- и аудиоданные: записи видеоинтервью, их расшифровки, голосовые отклики.
  • Данные из корпоративных систем: LMS, CRM, таск‑трекеры, внутренние соцсети, обратная связь 360.

Риски и как их избежать

Риск утечки персональных данных

Риск утечки персональных данных сотрудников при интеграции с внешними сервисами или использовании их для дообучения моделей без информированного согласия людей – основная опасность использования ИИ в HR. Компании это грозит не только штрафами со стороны регуляторов, но и репутационным ущербом и падением доверия со стороны работников и соискателей.

Как избежать утечек данных:

  • Назначьте ответственных за защиту данных сотрудников: в их обязанности будет входить надзор за корректной обработкой данных и соблюдение регуляторных требований.
  • Обучение сотрудников: регулярно проводите тренинги для сотрудников по вопросам прав и обязанностей в области защиты данных.
  • Меры по защите самих данных: используйте шифрование, анонимизацию и строгий контроль доступа.

Вероятность алгоритмической дискриминации

Это еще один значимый фактор риска. Речь идет о воспроизведении моделью предвзятостей, заложенных в исторических данных. Например, если компания статистически реже нанимала женщин на технические роли или людей старше 45 лет, модель «учится» оценивать такие профили как менее предпочтительные. Это не только нарушает ст. 3 ТК РФ (прямой запрет дискриминации при приеме на работу по полу, возрасту, месту жительства и семейному положению), но и сужает воронку талантов, которые могли бы усилить команду и создать реальную бизнес-ценность.

Такая дискриминация может быть незаметной для рекрутера, если он видит только итоговый рейтинг резюме без понимания, какие признаки и как именно повлияли на результат. Во избежание правовых споров и репутационных потерь компаниям необходимо придерживаться механизма human-in-the-loop (вовлечения экспертов-людей в процессы принятия решений ИИ) и внутренних регламентов этичного использования ИИ в HR.

Как избежать дискриминации ИИ-алгоритмами

  • Не доверяйте алгоритму решения, которые существенно затрагивают права человека (наём, увольнение, значимые изменения условий труда) без возможности пересмотра выводов модели специалистом.
  • Исключите из данных для обучения модели чувствительные признаки (пол, возраст, семейное положение, национальность), которые могут стать причиной дискриминации.
  • Проводите регулярный аудит моделей: периодический пересмотр алгоритмов, тестирование на новых данных, ручная проверка кейсов.

Недоверие сотрудников к ИИ-алгоритмам

Еще один важный по значимости фактор. Перспектива, что алгоритм может решить судьбу карьеры сотрудника, многим может казаться пугающей, вплоть до саботажа HR-инициатив по автоматизации бизнес-процессов.

Важно объяснять сотрудникам и кандидатам:

  • какие именно данные анализирует AI;
  • какова роль человека: что окончательное решение принимает специалист, а алгоритм — только инструмент поддержки;
  • как оспорить результат: кому можно задать вопрос, запросить пересмотр, исправить данные.

Базовый чек-лист безопасного использования ИИ в HR

При внедрении AI-инструментов в процессы необходимо прописывать строго требования к недискриминации, аудиту моделей и формированию отчетности.

1. Контроль данных и доступов. Определите, какая информация в компании является конфиденциальной и запретите ее использование в ИИ-системах.

2. Проверка ИИ-провайдеров. Изучайте политику конфиденциальности ИИ-сервисов в отношении пользовательских данных. Обращайте внимание на бессрочное хранение данных и передачу в другие юрисдикции.

3. Критичное использование результатов ИИ. Проверяйте код, тексты и ответы чат-ботов на ошибки, уязвимости и недостоверную информацию.

4. Учет бизнес-рисков по направлениям. В разработке: проверяйте код на уязвимости и лицензии. В маркетинге: оценивайте риски авторского права и этики. В продажах и поддержке: контролируйте корректность и контекст ответов чат-ботов.

5. Системное обучение сотрудников. Обучайте безопасному использованию ИИ, юридическим рискам и проверке результатов. Закрепляйте знания через внутренние мастер-классы и тренинги.

AI как инструмент справедливости, а не риска

AI в HR обладает огромным потенциалом в области оптимизации найма, обучения, управления эффективностью и вовлеченностью. Однако этические проблемы, которые ставит ИИ перед HR-специалистами (предвзятость, непрозрачность работы алгоритмов, обеспечение конфиденциальности данных), требуют проактивного подхода к решению.

Руководители HR-отделов должны уделять приоритетное внимание этике использования ИИ, привлекать специалистов из разных сфер (от юридического департамента до разработки) и инвестировать в обучение персонала.

Этический подход — это конкурентное преимущество на рынке работодателей: кандидаты и сотрудники больше доверяют компании, которая честно говорит об используемых ИИ-инструментах и следит за сохранностью личных данных сотрудников.

Автор: Ольга Королева, руководитель направления HR People Partners в Битрикс24

Иллюстрации: Freepik

Читайте также:

Подписывайтесь на наш Telegram-канал и читайте уникальные HR-новости!

 

Копирование и любая переработка материалов с сайта neohr.ru запрещены

Предложить свою статью для публикации




Комментарии


Комментариев пока нет

Добавить комментарий *Представьтесь:


*Комментарий:




Копирование и любая переработка материалов
с сайта neohr.ru запрещены

Copyright © Neo HR 16+

Реклама: оставить заявку
О проекте | Политика конфиденциальности

Сетевое издание Neo HR. Свидетельство о регистрации средства массовой информации в Федеральной службе по надзору в сфере связи, информационных технологий и массовых коммуникаций
ЭЛ № ФС 77 – 57596 от 08.04.2014 | Московская область
Учредитель: Ильин И.К. | contactus@neohr.ru | 8|925|3625348

Этот сайт использует файлы cookie и метаданные. Продолжая просматривать его, Вы выражаете свое согласие на обработку персональных данных с использованием метрических программ Яндекс.Метрика, Top100 в соответствии с Политикой обработки файлов cookie
Продолжить