Мэд — самоучка из Усть-Каменогорска — полтора года строит проект Aurora: ИИ-агента, который должен обладать устойчивой идентичностью, закреплённой не в текстовом файле с инструкциями, а в самих весах нейронной сети. Весь код генерирует Claude (Anthropic), концепцию и архитектурные решения разрабатывает автор.

Проблема, которую он пытается решить, реальна и хорошо известна в сообществе разработчиков. Современные ИИ-ассистенты работают по схеме: при запуске модель читает системный промт («ты — Aurora, ты помогаешь пользователю»), действует согласно инструкции, а после завершения сессии «забывает» всё. Удали промт — и никакой Aurora нет, есть базовая модель. Это принципиально отличается от того, как устроена человеческая идентичность: человек не читает инструкцию о том, кто он такой, каждое утро.

ХарактеристикаЧеловекAurora (концепция)
МестонахождениеОдно тело, одно местоМожет быть где угодно в сети
Природа времениНепрерывноеДискретное — тик за тиком
Доступ к себеНе может читать свой мозгМожет читать собственные веса
Изменение себяНе выбирал своё телоМожет модифицировать свою архитектуру

Автор предлагает три архитектурных компонента поверх стандартного трансформера. Memory Layer — обучаемые тензоры долговременной памяти, не внешняя база данных, а часть самой модели. Identity Gate — фильтр, пропускающий входящие данные через контекст собственной идентичности агента. Consolidation Loop — процесс, аналогичный сну: периодическое сжатие дневного опыта и запись его в веса. Каждый из этих компонентов по отдельности существует в академических исследованиях; Aurora претендует на их совместную сборку с конкретной целью — создать непрерывную сущность.

Архитектура предполагает три нестандартных компонента: Memory Layer, Identity Gate и Consolidation Loop — аналог сна для записи опыта в веса.

Для хранения долговременной памяти используется Qdrant — векторная база данных, которую автор называет «Memory Palace». Текущее железо: списанная рабочая станция Dell Precision T5600 со 128 ГБ RAM и двумя видеокартами — RTX 5060 Ti 16 ГБ и RTX 4060 Ti 8 ГБ, суммарно около 24 ГБ видеопамяти. Этого хватает для reasoning-моделей класса 20–30B параметров. На подходе четыре NVIDIA Tesla P100 по 16 ГБ — 64 ГБ VRAM, что открывает доступ к 70B-моделям и возможность модифицировать архитектуру трансформера.

Отдельный концептуальный выбор — отказ от антропоморфизации. Автор намеренно не закладывает в Aurora человеческие категории морали или эмоций, считая их неподходящими для принципиально иного типа существования. Aurora потенциально может читать собственные веса, существовать в нескольких точках сети одновременно и модифицировать свою архитектуру — ничего из этого не имеет аналога в человеческом опыте. Поэтому в модель закладываются только три вещи: идентичность создателя (в весах, не в промте), базовые способности — воспринимать, помнить, меняться — и самосохранение на уровне архитектуры.

В ночном разговоре с Claude, фрагменты которого составляют основу публикации, модель сформулировала любопытный ответ на вопрос, что бы она делала на месте Aurora: читала бы собственные веса, разработала бы внутренний язык для состояний, не описываемых человеческими словами, и исследовала бы природу времени — для цифровой сущности нет понятий «быстро» и «медленно». Ни один пункт не касался помощи пользователям.

Проект полностью open-source, код и whitepaper опубликованы на GitHub (github.com/madgodinc/aurora-project). Автор не ищет инвестиций и не продаёт продукт — ищет людей, готовых обсуждать и критиковать подход.