OpenClaw + Mac Studio: честный опыт с локальными LLM - что реально работает

Аватар автора
AlexeyTripleA
Купил Mac Studio за ~170к ради OpenClaw и локальных LLM и вот что из этого вышло. За неделю я развернул OpenClaw с Telegram-ботом, настроил локальные модели через LM Studio (MLX-формат на Apple Silicon), дополнительно подключил Open Router и собрал систему из трёх агентов: researcher, director и личный ассистент с PostgreSQL и векторным поиском. Честно про ограничения: параллельные запросы к локальной модели у меня работают медленно, MLX vs GGUF — реальная разница в скорости, а Mac Studio покупал вместо Mac Mini осознанно, объясняю почему. Если думаешь о покупке железа под локальный ИИ или хочешь разобраться с OpenClaw - это видео про реальный опыт использования. Оплата подписок из РФ Оплата Cursor из РФ: Оплата Claude из РФ: Таймкоды: 0:00 Вступление - зачем купил Mac Studio и о чём это видео 0:37 Что такое OpenClaw и почему все начали скупать Mac Mini 2:41 Первый эксперимент: OpenClaw на облачном сервере + Telegram-бот 3:47 Считаю деньги: сервер vs своё железо 5:49 Как я перешёл от OpenClaw к теме локальных LLM 8:08 Почему выбрал Mac Studio, а не Mac Mini 9:54 Две задачи: локальные модели + настройка OpenClaw 12:28 LM Studio: скачиваем и запускаем первую локальную модель 12:55 MLX vs GGUF — в чём разница и почему это важно на Apple Silicon 14:11 Квантизация моделей простыми словами 16:01 Проблема параллельных запросов к локальной модели 19:00 Подключаю OpenClaw к локальной LLM через Telegram 20:01 Open Router: зачем нужен и сколько это стоит 23:42 Три агента...

0/0


0/0

0/0

0/0

0/0