Знакомство с LLM. Ollama

Аватар автора
Мотькин ИИ
В последнее время на канале много контента по Computer Vision, но сегодня сделаем шаг шире: многие задачи компьютерного зрения всё чаще решаются через мультимодальные LLM, где текст и изображения работают вместе. Например: • подаём изображение → получаем текстовое описание; • описываем текстом, что хотим → получаем сгенерированную картинку. Это видео — практический путеводитель в мир LLM без погружения в архитектуру: наша цель — запустить модель локально и научиться правильно с ней взаимодействовать. В качестве основы я выбрал Ollama — один из самых простых вариантов для старта и встраивания в свои проекты (в том числе через Docker). По ходу ролика разберём API Ollama, параметры генерации, чаты, мультимодальность, инструменты (tools), эмбеддинги, веб-агентов, OpenAI-совместимость и интеграцию с VS Code. Таймкоды: 00:00 | Введение 01:15 | Знакомимся с Ollama 03:41 | Разворачиваем Ollama в доккер контейнере 06:29 | Служебные команды Ollama 12:15 | Команда generate и выходные параметры 21:33 | Команда generate и входные параметры 22:48 | suffix (FIM), входной параметр 25:15 | images, входной параметр 29:09 | format, входной параметр 35:50 | system, входной параметр 37:11 | think, входной параметр 39:50 | raw, входной параметр 42:39 | keep_alive, входной параметр 44:22 | seed (options), входной параметр 45:36 | temperature (options), входной параметр 48:55 | logprobs, top_logprobs, входные параметры 52:22 | top_k (options), входной параметр 56:04 | top_p (options), входной...

0/0


0/0

0/0

0/0