Советские меломаны в начале 1980-х записывали Beatles и Pink Floyd на использованные рентгеновские снимки — так называемая «музыка на костях». Это был способ вернуть себе выбор вопреки системе, которая этот выбор не предусматривала. Авторы из Центра национальных интеллектуальных систем (ЦНИС) используют этот образ, чтобы описать проблему сегодняшнего цифрового рынка: пользователь снова лишён субъектности, только теперь не по политическим, а по бизнес-причинам.
Механизм потери субъектности прост. Сервис предлагает удобство — быстрое такси, облачное хранилище, инструмент для дизайна — по цене, которая кажется символической. Реальная цена другая: история поездок с адресами и временем, рабочие файлы в чужом облаке, поведенческие паттерны, которые платформа монетизирует через рекламу, аналитику или прямую продажу данных. Пользователь формально соглашается на это галочкой под пользовательским соглашением, фактически — не читая его. Сделка заключается молча и по умолчанию.
Проблема не только в утечках и инсайдерах, хотя и они никуда не делись. Проблема в архитектурном решении: платформы изначально строятся так, чтобы пользователь был объектом — трафиком, когортой, лидом, материалом для A/B-тестов. Это не злой умысел, а продуктовая логика, заточенная под рост метрик. Персонализация в этой логике означает не «продукт подстраивается под меня», а «платформа возвращает мне мой же анкетный портрет в форме оффера». Когда банк предлагает кредит под залог Rolls-Royce Cullinan человеку, который просто смотрел сторис в приложении, — это и есть персонализация без субъектности. Клиент закрыл счёт.
Персонализация на основе данных даёт обратный эффект: неуместные офферы разрушают доверие быстрее, чем строят его.

Технически возврат контроля пользователю — задача решаемая. Локальные языковые модели вместо облачных там, где обработка данных не требует внешней инфраструктуры. Архитектуры с минимизацией собираемых данных — принцип data minimization, давно закреплённый в европейском регулировании, но редко реализуемый по собственной инициативе компаний. Явные согласия вместо скрытых — когда пользователь понимает, на что именно он соглашается. Возможность видеть, что именно о нём хранится, и удалять это без звонка в поддержку. Наконец, ИИ-агенты, которые работают на стороне пользователя, а не платформы: не собирают данные для платформы, а помогают пользователю принимать решения в его интересах.
ЦНИС формулирует это как инженерный, а не этический вопрос. При оценке ИИ-стартапов и корпоративных внедрений организация задаёт командам один и тот же вопрос: какой функционал в продукте возвращает пользователю контроль над данными и выбором? Если ответа нет — продукт построен на молчаливой сделке и работает на износ доверия. Авторы утверждают, что решения, возвращающие субъектность, как правило улучшают и пользовательские метрики, и экономику продукта одновременно — аудитория 2020-х считывает разницу между «продукт работает на меня» и «продукт работает мной» значительно быстрее, чем пять лет назад.


