29.04.2026 17:44
В 2026 году дискуссия на тему, заменит ли ИИ человека, уже утратила актуальность. На смену ей пришел более прагматичный вопрос: как специалисту сохранить профессиональную форму, когда половину его задач закрывают алгоритмы?
О том, как не растерять экспертизу, когда нейросети забирают на себя львиную долю привычных задач, и почему роль человека в гибридных командах смещается от исполнения к аудиту, рассказывает Михаил Беляев, руководитель образовательного направления «Битрикс24».

Гибридная команда: новая архитектура процессов
Бизнес стремительно переходит от модели «сотрудник-ремесленник» к модели «сотрудник-архитектор». По данным совместного исследования компании «Яков и Партнеры» и «Яндекса», более 70% крупных компаний в России уже интегрировали генеративный ИИ в свои процессы. При этом вопрос дефицита кадров является критическим (о нехватке персонала заявляют до 78% компаний). Таким образом ИИ становится практически единственным способом масштабировать человеческий интеллект.
Сегодня рабочее место превращается в гибридную экосистему. Часть задач забирает машина (рутина, сбор данных, черновики), часть остается за человеком (смыслы, риски, финальные решения).
Как меняется структура ролей
Линейный сотрудник. Меньше «пишет код» или «верстает письма», больше редактирует, интерпретирует и проверяет результат. Ценность определяется наличием критического мышления.
Руководитель. Переходит от микроменеджмента процессов к управлению качеством. Его задача — задавать рамки и оценивать риски.
Стоит понимать, что в подобной модели работы существует риск «цифровой амнезии» — при избыточном делегировании человек может утратить собственные навыки, которые необходимы ему, чтобы выполнять свою работу качественно.
Почему делегирование ИИ — это прокачка компетенций
Во-первых, нейросети помогают масштабировать стратегическое видение. Избавившись от необходимости тратить часы на рутину, сотрудник получает ресурс, чтобы удерживать в фокусе контекст проекта. Теперь его задача — не просто делать, а четко понимать конечную цель. Ведь для того, чтобы ИИ выдал адекватный результат, человек должен транслировать ему глубокое понимание бизнес-задачи.
Во-вторых, у специалиста неизбежно развивается управленческий мускул. Взаимодействие с LLM-моделями превращается в интенсивную школу делегирования. Чтобы получить на выходе качественный продукт, сотруднику приходится осваивать hard-skills руководителя: учиться ставить безупречные ТЗ, расставлять приоритеты и внедрять многоступенчатый контроль. Эти навыки управления, ранее необходимые только топ-менеджменту, теперь становятся базовым требованием для каждого.
Также происходит оттачивание навыка верификации. Необходимость постоянно проверять ИИ на предмет галлюцинаций и фактических ошибок развивает внимательность к деталям. Исправляя нейросеть, эксперт не просто занимается фактчекингом — он рефлексирует над собственной базой знаний, оттачивая интуицию и насмотренность.
Наконец, работа с ИИ превращается в обучение через менторство. Будучи учителем для алгоритма, эксперт систематизирует свои знания так глубоко, как никогда не делал этого, работая в одиночку.
Безопасность и правила игры
Переход к гибридной модели невозможен без жесткой политики безопасности. Исследования «Битрикс24» и «Русской школы управления» показывают тревожную статистику: каждый пятый сотрудник (20%) отправлял конфиденциальные данные в нейросети.
Чтобы избежать утечек, бизнесу необходимо внедрить ИИ-гигиену. Фундамент безопасности — это не только использование корпоративных аккаунтов, но и осознанный выбор способа взаимодействия с моделью. Поскольку развертывание тяжелых enterprise-решений внутри контура доступно не всем, бизнес может идти тремя путями:
- Локальные модели. Использование компактных LLM, которые можно запустить на обычном ноутбуке или офисном ПК. Это гарантирует, что данные физически не покинут устройство.
- Ручное купирование. При небольших объемах данных сотрудник может самостоятельно убирать из промпта ФИО, названия компаний и финансовые показатели, заменяя их на переменные («Клиент А», «Сумма Х»).
- Автоматизированная анонимизация — cамый надежный и масштабируемый способ. В «Битрикс24», например, мы разработали собственное приложение-анонимайзер. Оно автоматически «вычищает» персональные данные и коммерческую тайну из запроса перед тем, как отправить его в нейросеть.
Капитализация экспертизы
Как только вопрос безопасности данных и цифровой гигиены закрыт, можно переходить к масштабированию экспертизы. Задача компании — сделать так, чтобы индивидуальные находки сотрудников становились коллективным активом.
Начать стоит с того, чтобы собрать все лучшие приемы в одну копилку и не тратить время на изобретение велосипеда. В «Битрикс24» для этого проводят конкурсы промптов: коллеги делятся своими находками, а самые эффективные запросы потом превращаются в готовые сценарии и роли, которыми может пользоваться вся команда.
При этом важно следить, чтобы из-за передачи задач алгоритмам не падало качество работы. Хотя человек больше не тратит время на ручное исполнение, за ним остается роль финального аудитора, в зоне ответственности которого верифицировать данные, чтобы исключить возможные галлюцинации нейросети.
Однако и проверку можно автоматизировать. К примеру, в «Битрикс24» этот процесс реализован через многоступенчатый механизм: первичный фильтр проверяет массив данных по чек-листу, затем вторая модель ИИ перепроверяет найденные отклонения, отсеивая все лишнее, и только после такой двойной фильтрации действительно спорные моменты попадают к человеку. Такой подход избавляет руководителей от микроменеджмента и гарантирует соблюдение стандартов качества на каждом этапе.
Правило «70/20/10» для профессионального долголетия
Чтобы не потерять экспертность в мире, где ИИ делает половину задач, стоит придерживаться осознанного баланса:
- 70% задач — делаем в связке с ИИ для максимальной скорости.
- 20% задач — принципиально делаем руками, чтобы поддерживать нейронные связи и базовые навыки в тонусе.
- 10% времени — инвестируем в глубокий разбор ошибок (и своих, и алгоритма).
Потеря экспертизы возможна только при слепом доверии машине. В гибридной модели, где человек выступает как высокоуровневый аудитор, его ценность только растет: он несет ответственность за результат, когда ИИ ошибается.
Автор: Михаил Беляев, руководитель образовательного направления «Битрикс24»
Иллюстрации: Freepik
Подписывайтесь на наш Telegram-канал и читайте уникальные HR-новости!
Копирование и любая переработка материалов с сайта neohr.ru запрещены
Предложить свою статью для публикации
Комментарии
Комментариев пока нет