Стартап Osaurus представил open-source LLM-сервер для Mac, который позволяет пользователям гибко переключаться между локальными и облачными моделями ИИ. Проект возник из идеи десктопного ИИ-компаньона Dinoki: клиенты интересовались, зачем платить за токены, если можно запускать модели на своём устройстве. Сооснователь Теренс Пае, в прошлом инженер Tesla и Netflix, начал разрабатывать Osaurus как открытый проект, постепенно добавляя функции и исправляя ошибки.
Osaurus позиционируется как «харнес» — управляющий слой, который через единый интерфейс соединяет различные модели, инструменты и рабочие процессы. В отличие от аналогов вроде OpenClaw, ориентированных на разработчиков и имеющих потенциальные уязвимости, Osaurus предлагает простой интерфейс для неспециалистов и запускает модели в аппаратно-изолированном виртуальном sandbox. Это ограничивает доступ ИИ к системе, защищая компьютер и данные. Платформа поддерживает локальные модели — MiniMax M2.5, Gemma 4, Qwen3.6, GPT-OSS, Llama, DeepSeek V4 — и облачные сервисы OpenAI, Anthropic, Gemini, xAI/Grok и другие. Также Osaurus работает как полноценный MCP-сервер (Model Context Protocol) и поставляется с более чем 20 встроенными плагинами для Mail, Calendar, macOS Use и т.д.
Локальный запуск моделей остаётся ресурсоёмким: для минимальной работы нужно 64 ГБ ОЗУ, для DeepSeek V4 — около 128 ГБ. Пае отмечает, что эффективность локального ИИ (intelligence per wattage) быстро растёт: за год модели научились писать код, управлять браузером и заказывать товары. Он считает, что в перспективе развитие локального ИИ снизит зависимость от облачных дата-центров. Проект уже скачали более 112 тыс. раз. Основатели участвуют в акселераторе Alliance и рассматривают выход на корпоративный рынок — в юриспруденции и здравоохранении, где конфиденциальность данных особенно важна.
Поддерживает локальные модели (Llama, DeepSeek V4, Gemma 4 и др.) и облачные сервисы (OpenAI, Anthropic, Gemini).



