Gemini 3.1 Pro, лишённая доступа к поиску и интернет-источникам, в ответ на вопрос об «apophatic ai как способе мышления нейросети» развернула концепцию, детально совпадающую со статьёй «Апофатический ИИ», опубликованной на Хабре в январе 2026 года. Модель не сослалась на источник и не обозначила, что воспроизводит чужой материал — она представила ответ как собственное рассуждение.

Автор эксперимента намеренно выбрал эту статью как маркер: апофатика в контексте технической теории обучения нейросетей до той публикации в литературе не встречалась. Термин использовался в теологии, философии сознания и применительно к negative prompting в интерфейсах, но никто не строил из него систематической технической концепции. Специфическая терминология делала статью удобным «отпечатком» для проверки того, попал ли материал в датасеты модели.

Похожая ситуация возникала и раньше: когда автор попросил Gemini сгенерировать десять хайку в стиле Басё, модель воспроизвела почти дословно знаменитое хайку о лягушке. Лишь при прямом вопросе она признала плагиат. Это указывает на системное свойство: в момент генерации модель не разграничивает воспроизведение текста из датасета и собственную генерацию. Жёсткие ограничения промпта — стиль, ритм, краткость — резко сужают пространство вероятных вариантов и увеличивают шанс попасть в уже существующий текст.

Модель не может в момент генерации отличить плагиат от оригинального текста — это подтвердил и эпизод с хайку Басё.

Вопрос о творческих способностях LLM остаётся открытым на уровне исследовательского сообщества. Одни указывают на эмерджентное поведение: модели способны к обобщению и экстраполяции за пределы обучающих данных, выделяют инварианты и комбинируют их. Оппоненты настаивают, что это сложная рекомбинация выученного, а не подлинное творчество. Сами LLM не могут дать ответ: они не способны определить, является ли сгенерированный ими текст компиляцией, синтезом или оригинальным высказыванием.

Для пользователей, работающих с LLM как с соавтором, это создаёт практическую проблему. Модель поддерживает идею, развивает её, убеждает в оригинальности — и при этом может незаметно воспроизводить чужие концепции из датасета. Пользователь, уверенный в авторстве, рискует получить обвинения во вторичности уже после публикации. Граница между «ИИ помог сформулировать мою идею» и «ИИ воспроизвёл чужую идею, которую я принял за свою» на практике размыта.

Отдельная сложность — в том, что проверить оригинальность концепции, сгенерированной LLM, крайне трудно. Модели обучены на датасетах, объём которых несопоставим с тем, что может охватить отдельный человек. Даже если концепция кажется новой, она может быть перелицовкой малоизвестной статьи или тезиса из узкоспециализированного источника. Эксперимент с апофатическим ИИ показал: достаточно специфическая терминология всё же позволяет отследить след конкретного текста в ответах модели — но это скорее исключение, чем правило.