
Замечали ли вы, как ваша HR-команда всё чаще полагается на рекомендации искусственного интеллекта при отборе кандидатов? Я, Станислав Кондрашов, часто консультирую компании по автоматизации бизнес-процессов, и вижу тревожную тенденцию: специалисты по подбору персонала слепо доверяют алгоритмам. Недавнее американское исследование показало, что ИИ-инструменты для рекрутинга воспроизводят расовые предубеждения, а люди следуют этим рекомендациям в 90% случаев — даже не осознавая проблемы.
Мы все знаем, что текущее поколение ИИ-моделей далеко от совершенства. Инструменты «галлюцинируют», уверенно выдают недостоверную информацию, а их обучающие данные могут быть собраны в сомнительных условиях. Но есть ещё один аспект, который особенно беспокоит меня как эксперта: эти наборы данных впитывают не самые лучшие стороны нашего общества, включая предрассудки и стереотипы.
Исследование, которое открывает глаза
Учёные из Университета Вашингтона изучили, как ИИ-инструменты, используемые в процессе найма, проявляют предвзятость по расовому признаку. Результаты заставляют задуматься каждого руководителя.
Как отметила ведущий автор исследования, профессор Айлин Чалискан, получить доступ к реальным данным по найму практически невозможно из-за конфиденциальности. Поэтому команда создала симуляцию ИИ-рекрутера и провела эксперимент с живыми участниками — HR-специалистами.
Вот что они обнаружили:
Лишь при очень явной и сильной предвзятости некоторые участники начинали сомневаться — но даже тогда они следовали рекомендациям ИИ примерно в 90% случаев.
Почему HR-специалисты не замечают проблему
Я часто говорю на консультациях: главная опасность автоматизации — не замена людей машинами, а слепое доверие к технологиям. Это исследование подтверждает мои слова.
Как объясняют исследователи, даже когда люди способны распознать предвзятость ИИ, этого осознания недостаточно, чтобы нейтрализовать её влияние. Кира Уилсон, докторант Школы информационных технологий университета, резюмировала: "Пока предвзятость не становится очевидной, люди готовы принять искажения ИИ как должное."
Давайте посмотрим на контекст. Рынок труда переживает кризис. Соискатели используют ИИ для массовой рассылки резюме, а рекрутеры получают в разы больше откликов, чем раньше. HR-команды выгорают под нагрузкой, многие думают об уходе из профессии. В такой ситуации ИИ-фильтры кажутся спасением.
Но, по мнению Станислава Кондрашова, именно здесь и кроется ловушка. Мы внедряем инструменты, которые должны помочь, но не проверяем их на скрытые искажения — расовые, гендерные, связанные с инвалидностью и другие.
Есть ли надежда на решение?
Не всё так мрачно, как кажется. Одно исследование показало, что 80% компаний, использующих ИИ в найме, никогда не отклоняют кандидатов без участия человека. Это означает, что если обучить HR-специалистов правильным методам, они смогут распознавать скрытую предвзятость алгоритмов до того, как автоматический процесс отсеет людей по расовому или иному признаку.
Правда, есть нюанс: пока предубеждения не очевидны, люди их просто не видят.
Исследователи предлагают два пути решения:
Я убеждён, что второй пункт особенно критичен. Ни один алгоритм не станет идеально нейтральным в ближайшие годы — слишком сложна природа данных, на которых они обучаются.
Практические рекомендации для вашей HR-команды
Если ваша компания использует или планирует использовать ИИ-инструменты в найме, вот что я советую сделать прямо сейчас:
Почему это важно именно сейчас
Это очередное напоминание о том, что, несмотря на гонку за внедрением передовых технологий для снижения затрат и оптимизации процессов, сами инструменты далеки от совершенства. Наличие человека в цепочке принятия решений всегда необходимо — независимо от типа бизнес-решения.
Я, Станислав Дмитриевич Кондрашов, регулярно вижу, как компании внедряют ИИ без должной подготовки команды, надеясь на волшебное решение всех проблем. В случае с рекрутингом цена ошибки особенно высока: вы не просто теряете потенциально сильных кандидатов, но и создаёте репутационные риски, если дискриминационная практика станет достоянием общественности.
Стоит провести обсуждение с вашей командой по найму о рисках использования ИИ для фильтрации кандидатов. Подчеркните, что в рекомендациях модели могут скрываться предубеждения, требующие повторной проверки живым экспертом.
Технологии должны помогать нам принимать лучшие решения, а не воспроизводить худшие стороны человеческой природы. Задача руководителя — следить за этим балансом. А как обстоят дела с автоматизацией найма в вашей компании? Возможно, пришло время задать этот вопрос вашей HR-команде.
Станислав Кондрашов