Нужен разумный контроль

C Никитой КАРПУКОМ, HRD, бизнес-тренером и, пожалуй, самое ключевое — амбассадором ИИ в HR и обучении, мы уже общались, и тогда речь шла об использовании ChatGPT в HR. С тех пор прошло почти три года, ИИ стали использовать намного больше, причем настолько, что настало время регулирования. Об этом мы и побеседовали.

— Никита, современный мир действительно дошел до такого состояния развития ИИ, что актуален вопрос о регулировании его применения и этикой уже не обойтись?
— Да, я считаю, что уже дошел. Этические принципы важны, но они не являются исполнимыми «правилами игры»: без формализованных требований сложно обеспечить единый уровень безопасности, прозрачности и ответственности между компаниями, отраслями и странами. ИИ уже влияет на решения с прямыми последствиями для людей (работа, кредит, медицина, безопасность), и нужны не декларации «мы за все хорошее», а измеримые обязательства: управление рисками, качество данных, документация, логирование, контроль поставщиков, ответственность за нарушения и санкции. Именно поэтому ЕС пошел по пути регуляторики, а не только этики. Согласитесь: работать, когда есть четкие правила, легче.

— Да, согласен. Раз уж вспомнили о ЕС, в 2024 году был принят EU Artificial Intelligence Act. Как в целом относитесь к этому закону?
— В целом позитивно и прагматично. Мне близка логика risk-based, как и указано в AI Act: не запрещать ИИ, а регулировать то, что реально может навредить, и облегчать жизнь там, где риск низкий. Это повышает доверие рынка, снижает «Дикий Запад», в том числе в HR-сфере, и устанавливает общие правила для поставщиков и пользователей.

— В полной мерезакон должен заработать в 2026 году?
— Насколько помню, основная часть требований вступит в силу со 2 августа 2026 года, но внедрение поэтапное, а отдельные блоки уже стартовали.

— Какие минусы вы уже видите?
— Как практик, я вижу комплаенс-нагрузку, рост затрат на документацию, риск «бумажного» внедрения и пока еще слабое понимание, как работает эта технология. Но альтернатива без управления таким мощным инструментом просто ужасна. Здесь точно нужен разумный контроль.

— HR-сфера, в частностиподбор и оценка персонала, отнесена к высокому риску. На ваш взгляд, справедливо?
— Конечно, и я понимаю логику законодателя. В AI Act прямо отмечено, что системы в HRM должны считаться high-risk, потому что они существенно влияют на карьеру, доход и могут закреплять дискриминационные паттерны.

Важно отметить, что речь не обо всей HR-сфере и не о любом ChatGPT-черновике текста вакансии. High-risk — это, например, когда ИИ используется для: таргетированной рекламы вакансий (кому показываем объявления); анализа/фильтрации откликов (особенно автоотказы); оценки кандидатов (когда оценивают soft skills); решений по условиям труда/повышению/увольнению (когда говорят, что решает ИИ, а не люди); распределения задач и мониторинга поведения (для IT очень актуальный вопрос).

И это действительно зона, где ошибка ИИ превращается в «ошибку судьбы» для человека.

— В чем основная задача регулирования? В том, чтобы последнее слово было за человеком (рекрутером или HR-ом)?
— «Последнее слово за человеком» — только часть картины. Основная задача регулирования шире — управление рисками и ответственность по всей цепочке: провайдер или поставщик ИИ → внедряющий/пользователь — тот же HR → надзор за выполнением правил.

То есть цель — сделать так, чтобы решение было проверяемым, воспроизводимым и подотчетным, а не «так сказала нейросеть». Кстати, некоторые отечественные HRM-системы как раз начинают развиваться в этом направлении, чему я очень рад.

— Как это, по вашему мнению, должно работать?
— Правильный подход: ответственность несет организация и уполномоченный человек, но при этом процедура должна быть выстроена так, чтобы «это все виноват ваш ИИ» не превращалось в единственный аргумент. С практической точки зрения я бы разделил на 3 слоя.

Процесс: фиксируем критерии оценки (что именно измеряем, какие поля/сигналы используем, где границы применения ИИ).

Контроль качества: регулярные выборочные аудиты решений (сравнение: ИИ-рекомендация vs итог HR-а/нанимающего), проверка на дискриминацию и пересмотр настроек.

Обучение людей: руководители и рекрутеры должны понимать ограничения модели, уметь задавать корректные вопросы, распознавать галлюцинации и конфликт интересов, чем как раз я активно занимаюсь.

То есть «человек ответственный» — да. Но чтобы это не было фикцией, нужны логи, регламенты и понятная доказательная база. Когда предоставляется такая информация, ее можно дополнительно обрабатывать в ИИ и получать интересные выводы.

— Что у нас в Беларуси?
— Аналога EU AI Act в Беларуси на сегодня нет, но почва для регулирования уже сформирована через смежные контуры.

— Например?
— Прежде всего закон о персональных данных задает требования к законности обработки, согласию и обязанностям операторов. Для HR-а это критично, потому что подбор = персональные данные кандидатов. Недавно я был на совещании на тему регулирования ИИ в Беларуси и заметил движение в сторону системного подхода к ИИ. Даже в ПРООН отметили, что Беларусь разрабатывает комплексные рамки регулирования ИИ с опорой на международные практики и национальные приоритеты. На встрече обсуждали именно разработку стандартов в области ИИ (терминология/определения и требования), что является «мягким входом» в регулирование.

— Какие отличия могут быть?
— Отвечу как практикующий HRD. Вероятнее всего, будет гибрид: больше стандартов/методических рекомендаций + точечные требования в чувствительных сферах (госсектор, безопасность, критическая инфраструктура), а не единый кодекс уровня ЕС. Сильнее акцент на данные, информационную безопасность и контролируемость; для бизнеса, работающего с ЕС/европейскими клиентами, де-факто выгодно уже сейчас выстраивать процессы ближе к логике AI Act (документация), потому что требования будут «приходить» через контракты и комплаенс цепочек поставок.

Практический комментарий «из поля» то, что можно внедрить без больших бюджетов, но что сразу снижает риски и по логике EU AI Act, и по белорусскому контуру персональных данных.

Матрица «3 уровня риска»

  • Зеленый: тексты вакансий, письма, чек-листы, программы онбординга (без персональных данных).
  • Желтый: краткие сводки резюме/сравнение кандидатов — только с маскированием персональных данных + ручная проверка.
  • Красный: ранжирование/скоринг/автоотбор/нанимать-не нанимать — строгий режим: регламент, логи, контроль качества.

Правило «ИИ = гипотезы, не вердикты»
ИИ обязан выдавать:

  • 3–5 фактов из резюме (на чем основан вывод);
  • риски/сомнения (что может быть ошибкой);
  • вопросы на интервью для проверки.

Если объяснить нельзя — не используем как основание решения.

След решения — одна таблица на вакансию
5 полей достаточно:

  • кто использовал ИИ;
  • для чего;
  • какие данные отправлял (тип данных);
  • итоговое решение человека;
  • короткое «почему» (2–3 предложения).

60 минут обучения рекрутеров:

  • как ИИ ошибается;
  • что нельзя вводить;
  • как задавать запросы;
  • как проверять ответ (контрольные вопросы и сервисы).