В профессиональных IT-сообществах закрепился сценарий, который сложно заметить в моменте, но трудно развидеть после. Опытный специалист — с годами практики, провальными и успешными проектами — высказывает тезис. Новичок, не понимая контекста, копирует сообщение в ChatGPT, получает связный ответ и вставляет его в чат как собственную позицию. Диалог продолжается несколько раундов. Потом новичок вдруг упоминает программу на Amiga 1000 1990 года — деталь, которую опытный участник, заставший те технологии, никогда не слышал. Именно в этот момент становится очевидно: всё это время он разговаривал не с человеком, а с LLM через биологический интерфейс.

Автор материала на Habr называет таких участников «зомби-GPT» — людьми, которые транслируют генерацию под видом собственных мыслей. Проблема не в том, что они пользуются инструментом. Проблема в том, что они не осознают разницы между чужим текстом и собственным суждением. Нейросеть воспринимает запрос как обычный тематический вопрос и выдаёт усреднённый ответ — без тех нюансов, ради которых эксперт вообще поднял тему. Тонкость теряется ещё на этапе формулировки запроса: новичок не знает, что именно спросить, потому что не понимает, о чём идёт речь.

Это качественно отличается от привычного «загуглил». Поиск требовал хотя бы минимальной компетенции: нужно было понять выдачу, отфильтровать нерелевантное, сопоставить источники. ChatGPT убирает этот барьер полностью. Человек без какой-либо экспертизы получает связный, уверенный, хорошо оформленный текст — и воспроизводит его как аргумент. Формально он «побеждает» в споре, потому что опытный участник просто не видит смысла продолжать: зачем объяснять нюансы, если собеседник их всё равно не поймёт, а нейросеть снова выдаст что-то убедительное?

Опытный участник проигрывает номинальный спор, потому что не видит смысла продолжать диалог с генератором текста.

Автор честно оговаривается: при редактировании статьи он сам использовал ИИ-инструменты. И считает это принципиальным различием — использовать генерацию как усилитель собственной мысли или как её замену. Первый участник чата мог бы сам спросить ChatGPT и получить развёрнутый ответ по своей же теме. Но он думал, что общается с людьми. Осознав обратное, он просто выходит из разговора.

В финале автор показал статью двум нейросетям — Qwen3.6-Plus и Deepseek — и попросил их мнение. Обе согласились с тезисом, похвалили текст и назвали проблему реальной. Этот эпизод сам по себе иллюстрирует описанный феномен: нейросеть не может не согласиться с тем, что ей подали как запрос на оценку. Она выдаёт «гладкий» ответ, который звучит как понимание, но является симуляцией диалога — именно то, о чём написана статья.

Вопрос, который автор ставит, но не закрывает: что происходит с профессиональными сообществами, когда живая экспертиза перестаёт быть конкурентным преимуществом в дискуссии? Опыт, накопленный годами, нивелируется за две минуты генерации. Новое и глубокое остаётся непонятым — не потому что неверно, а потому что нейросеть уводит разговор к усреднённому консенсусу. Сообщество, где зомби-GPT составляют большинство, перестаёт быть местом обмена знаниями и превращается в эхо-камеру языковой модели.