Программа MorphCast проанализировала выражение лица журналистки The Atlantic Эллен Кашинг во время рабочей встречи и пришла к выводу, что та была «развлечена», «решительна» и «заинтересована» — с периодическими вспышками «нетерпения». Этот самоэксперимент стал отправной точкой для большого репортажа о целой индустрии, которая тихо встраивается в повседневную жизнь офисов и колл-центров под названиями «emotion AI» и «affective computing».

Продукты этого класса анализируют видеозаписи собеседований, аудио звонков в службы поддержки, переписку в корпоративных мессенджерах. MetLife отслеживает тембр и интонации операторов колл-центров. Burger King тестирует гарнитуру с чат-ботом Patty, который оценивает взаимодействие сотрудников с клиентами на предмет «дружелюбия». Производитель офисной мебели Framery испытывал кресла с биосенсорами, измеряющими пульс, частоту дыхания и уровень тревожности. Slack-интеграции Aware и Azure от Microsoft предлагают анализ тональности внутренней переписки, а платформа Imentiv продаёт инструменты эмоционального анализа для найма.

Компания / продуктЧто анализируетсяПрименение
MetLifeТембр и интонации голосаМониторинг операторов колл-центров
Burger King (чат-бот Patty)Взаимодействие сотрудников с клиентамиОценка дружелюбия персонала
FrameryПульс, дыхание, тревожностьБиосенсоры в офисных креслах
Aware / Microsoft AzureКорпоративная перепискаАнализ тональности в Slack
ImentivВидео собеседованийЭмоциональный анализ при найме
HireVueВидео и аудио кандидатовСкрининг соискателей

Научная база большинства этих систем строится на теории шести базовых эмоций психолога Пола Экмана. Проблема в том, что эта теория «широко оспаривается как чрезмерно упрощённая и методологически ненадёжная» уже несколько десятилетий. Нейробиолог Лиза Фельдман Барретт формулирует это так: движения — «будь то на лице, в теле или в звуках, которые вы издаёте, — не несут в себе врождённого эмоционального смысла. Они несут реляционный смысл». Иными словами, одно и то же выражение лица в разных культурах и контекстах означает разное. В США, по данным исследований, люди хмурятся от злости лишь в 35% случаев.

MetLife анализирует голос операторов колл-центров; Burger King тестирует чат-бот Patty, оценивающий дружелюбие сотрудников.

Помимо научной сомнительности, системы демонстрируют устойчивую предвзятость. Исследование Лорен Рю показало: ИИ распознавания эмоций оценивал темнокожих игроков НБА как более злых по сравнению с белыми коллегами — в ряде случаев даже когда те улыбались. Это не абстрактная проблема: по данным расследования NYT 2022 года, социальные работники UnitedHealth получали пониженные оценки за «неактивность клавиатуры» в то время, когда они разговаривали с пациентами. ACLU обвинила платформу для найма HireVue и её клиента Intuit в том, что глухой сотруднице отказали в повышении, а в письме об отказе посоветовали «практиковать активное слушание». Обе компании оспаривают эти обвинения.

Европейский союз отреагировал законодательно: AI Act запрещает применение emotion AI в трудовых отношениях — с исключениями только для медицинских и охранных целей. MorphCast ответила на это переносом штаб-квартиры из Флоренции в Кремниевую долину. Американский рынок остаётся практически нерегулируемым, и именно туда направлен основной рост: по прогнозам, к 2030 году глобальный рынок достигнет $9 млрд.

Автор репортажа заканчивает неожиданным выводом: страшнее, чем ошибающиеся системы, был бы сценарий, при котором они работают безупречно. Тогда к обычным рабочим обязанностям добавится ещё одна — «заставить эмоционального робота думать, что я достаточно жизнерадостна». Это точно описывает логику индустрии: даже если технология не работает, она уже меняет поведение людей, которые знают, что за ними наблюдают.