искусственный интеллект Кембриджский университет исследование
Исследование показало, что ИИ не уменьшает предвзятость и не повышает разнообразие сотрудников.
Согласно новой работе, опубликованной исследователями из Центра гендерных исследований Кембриджского университета, ИИ демонстрирует субъективность и ненадежность при отборе сотрудников, а также использует алгоритмы, основанные на лженауке.
«ИИ нельзя обучить определять только связанные с работой характеристики и игнорировать гендерные/расовые характеристики кандидата. Это связано с тем, что те качества, которые, как мы считаем, необходимы для того, чтобы быть хорошим работником, по своей сути связаны с гендерными и расовыми характеристиками», – сказала Керри Маккерет, постдок из Центра гендерных исследований Кембриджского университета.
Особое беспокойство у исследователей вызвали инструменты, сравнивающие мельчайшие детали речи и телодвижений кандидата с идеальным образцом сотрудника компании. По словам соавтора исследования, доктора Элеонору Драге, такие инструменты не имеют никакой научной основы и больше похожи на френологию – антинаучную теорию о связи психических свойств человека и строения его черепа.
Кроме того, вместе с шестью студентами, изучающими компьютерные науки, исследователи создали свой собственный упрощенный инструмент для подбора персонала на ИИ-алгоритмах, который оценивал фотографии кандидатов по «большой пятерке» личностных качеств:
Экстраверсии;
Покладистости;
Открытости;
Добросовестности;
Невротизму.
Но все полученные оценки были искажены многими не относящимися к делу переменными. Например, оценка личности менялась после изменения контрастности/яркости/насыщенности фото.
Кроме того, многие другие исследователи пришли к аналогичным выводам. Еще на оценку влияют очки и головной платок.
Однако не все специалисты скептически относятся к подобным технологиям. Некоторые считают, что ИИ может помочь в увеличении разнообразия сотрудников компании за счет анализа больших пулов кандидатов.