20 AI GitHub-репозиториев для разработчика в 2026 году

Инструменты для локальных моделей, инференса и работы с проектом из терминала

20 AI GitHub-репозиториев для разработчика в 2026 году

AI-инструменты уже вошли в обычную разработку: локально поднять модель, проверить промпт, подключить инференс к приложению, дать агенту доступ к коду и файловой системе. В подборке собраны репозитории, которые решают такие задачи без лишней обвязки и подходят для рабочего стека.

В этой подборке инструменты распределены по назначению: от нижнего слоя, где модель запускается и отдаёт ответы, до прикладного слоя, где разработчик работает с кодом, документами, речью, изображениями и автоматизацией.

AI-инструменты удобнее разбирать по слоям стека. Сначала идёт среда, где модель запускается и отдаёт ответы. Потом фреймворки и библиотеки, через которые модель обучают, дообучают или встраивают в приложение. Выше появляются агенты, автоматизации, поиск по документам, терминальные помощники и инструменты для речи, изображений и видео.

Мы подготовили таблицу: по ней видно, какой инструмент брать под конкретную задачу и в какой раздел идти дальше.

20 AI GitHub-репозиториев для разработчика в 2026 году

Локальный запуск моделей и интерфейс к ним

Этот блок про базовый слой: где модель живёт, как запускается и через что с ней работать. Ollama даёт быстрый локальный запуск моделей и API на localhost:11434. llama.cpp нужен для инференса на разном железе, работы с GGUF и квантизацией. Open WebUI добавляет веб-интерфейс поверх локальных и облачных моделей: чаты, файлы, поиск по документам, роли и журнал действий.

1. Ollama

https://github.com/openclaw/openclaw

Задача: Ollama нужен, когда языковую модель надо запустить локально: для проверки запросов, прототипа приложения, внутреннего помощника или сервиса, который обращается к модели с вашей машины.

Инструмент написан на Go и работает как среда запуска для моделей с открытыми весами. В списке поддерживаемых моделей указаны Llama 4, Gemma 3 и 4, Qwen 3, DeepSeek, Mistral, gpt-oss, GLM, Kimi K2.5 и MiniMax. Ollama даёт командную строку, программный интерфейс на localhost:11434, совместимые с OpenAI точки доступа и настольные приложения для macOS и Windows.

Как работает: Ollama скачивает модель, хранит её локально и поднимает сервер для обращений из приложения. Это удобно для локальной разработки LLM-приложений, приватного запуска моделей, серверов с GPU и пограничных агентов. В рабочих стеках Ollama используют как серверную часть для Open WebUI, LangChain, OpenClaw, Continue, Cline и Codex. 

Команда установки: 

На Windows откройте PowerShell и выполните:

irm https://ollama.com/install.ps1 | iex

На Linux и macOS выполните в терминале:

curl -fsSL https://ollama.com/install.sh | sh

На некоторых Linux-дистрибутивах могут понадобиться curl и zstd. На Debian и Ubuntu их можно поставить так:

sudo apt update && sudo apt install curl zstd

Проверьте, что командная строка Ollama установлена:

ollama -v

Сервис Ollama должен подняться в фоне на порту 11434. Если команда проверки показывает предупреждение, запустите сервис вручную:

ollama serve

После этого можно скачать и запустить первую модель:

ollama pull <model>
ollama run <model>

2. llama.cpp

https://github.com/ggml-org/llama.cpp

    Задача: llama.cpp нужен, когда модель нужно запустить локально с минимальной обвязкой и нормальной скоростью на разном железе: Apple Silicon, x86, RISC-V, NVIDIA, AMD, Intel, Vulkan, OpenCL и других бэкендах. Проект написан на C и C++ и рассчитан на инференс языковых моделей с небольшим количеством зависимостей.

    Как работает: llama.cpp запускает модели в формате GGUF. Модель можно скачать вручную или запустить совместимую модель прямо с Hugging Face через аргумент -hf. Для разработки есть два основных режима: llama-cli для локальных экспериментов и llama-server для HTTP-сервера с OpenAI-совместимым API.

    Проект поддерживает квантизацию 1.5-bit, 2-bit, 3-bit, 4-bit, 5-bit, 6-bit и 8-bit. Это снижает потребление памяти и ускоряет инференс. Ещё есть гибридный режим CPU+GPU, когда модель больше доступной видеопамяти и часть вычислений уходит на процессор.

    В проекте также есть локальный сервер llama-server на порту 8080. Этого достаточно, чтобы использовать модель как отдельный сервис в локальном окружении.

    Команда установки:

    llama.cpp можно поставить несколькими способами: через brew, nix или winget, запустить через Docker, скачать готовую сборку со страницы релизов или собрать из исходников. После установки нужна модель в формате GGUF. Её можно скачать вручную или запустить совместимую модель прямо с Hugging Face через аргумент -hf

    Запуск локального файла модели:

    llama-cli -m my_model.gguf

    Запуск модели напрямую с Hugging Face:

    llama-cli -hf ggml-org/gemma-3-1b-it-GGUF

    Запуск сервера с OpenAI-совместимым API:

    llama-server -hf ggml-org/gemma-3-1b-it-GGUF

    Запуск локального HTTP-сервера на порту 8080 с моделью из файла:

    llama-server -m model.gguf --port 8080

    После этого веб-интерфейс будет доступен по адресу:

    http://localhost:8080

    Точка доступа для chat completions:

    http://localhost:8080/v1/chat/completions

    3. Open WebUI

    https://github.com/open-webui/open-webui

      Задача: Open WebUI нужен, когда локальную или облачную модель надо дать в работу через нормальный веб-интерфейс: с чатами, файлами, поиском по документам, ролями, единым входом и журналом действий.

      Это самостоятельная оболочка в стиле ChatGPT для локальных и облачных языковых моделей. Проект начинался как Ollama WebUI в октябре 2023 года, а в январе 2024 года получил название Open WebUI. Он поддерживает Ollama, совместимые с OpenAI программные интерфейсы, Anthropic, Gemini, Mistral, DeepSeek и Groq. Для подключения внешних инструментов используется MCP через Streamable HTTP.

      Как работает: Open WebUI ставится поверх уже выбранной модели или поставщика моделей. Внутри есть встроенный движок для поиска по документам, голосовые и видеозвонки с Whisper и синтезом речи, конструктор пользовательских агентов, вызов функций на Python, постоянное хранилище артефактов, единый вход, роли и журнал аудита.

      Для команды это удобная рабочая точка поверх локального стека. Можно подключить Ollama, добавить документы, настроить доступы и получить интерфейс, с которым работают не через командную строку.

      Команда установки:

      Быстрее всего поднять Open WebUI через Docker. Если Ollama уже стоит на вашем компьютере, выполните:

      docker run -d -p 3000:8080 \
       --add-host=host.docker.internal:host-gateway \
       -v open-webui:/app/backend/data \
       --name open-webui \
       --restart always \
       ghcr.io/open-webui/open-webui:main

      После запуска интерфейс откроется в браузере:

      http://localhost:3000

      Флаг -v open-webui:/app/backend/data лучше не убирать: он монтирует базу данных и сохраняет данные Open WebUI между перезапусками контейнера.

      Модели и фреймворки для обучения и инференса

      Этот блок про модельный слой. DeepSeek-V3 — сама модель с открытыми весами, которую можно запускать через Ollama, vLLM, SGLang, llama.cpp или дообучать под задачу. PyTorch и TensorFlow нужны для обучения, экспериментов и промышленного развёртывания моделей. Hugging Face Transformers закрывает запуск и дообучение предобученных моделей для текста, зрения, аудио и мультимодальных задач.

      4. DeepSeek-V3

      https://github.com/deepseek-ai/deepseek-v3

      Задача: DeepSeek-V3 нужен как модель с открытыми весами для агентных сценариев, помощников по коду, локальных копилотов и задач, где нужны рассуждение и генерация кода.

      Как работает: DeepSeek-V3 поддерживает контекст 128K токенов. Веса лежат на Hugging Face и ModelScope. Лицензия указана как MIT с дополнительными условиями для коммерческого использования некоторых весов. Модель можно запускать локально через Ollama, vLLM, SGLang, llama.cpp или дообучать под домен.

      В рабочих сценариях DeepSeek-V3 используют для агентных задач, кодинг-помощников через Cline, Continue и Aider, а также локальных копилотов для регулируемых отраслей.

      Команда установки: сначала склонируйте репозиторий DeepSeek-V3:

      git clone https://github.com/deepseek-ai/DeepSeek-V3.git

      Для локального запуска используйте SGLang. В README DeepSeek-V3 нет одной универсальной команды установки SGLang, поэтому команду запуска нужно брать из инструкции команды SGLang для DeepSeek-V3:

      https://github.com/sgl-project/sglang/tree/main/benchmark/deepseek_v3

      Если нужен демонстрационный запуск из самого репозитория DeepSeek, он работает только на Linux с Python 3.10. Перейдите в папку inference и поставьте зависимости:

      cd DeepSeek-V3/inference
      pip install -r requirements.txt

      5. PyTorch

      https://github.com/pytorch/pytorch

      Задача: PyTorch нужен для обучения нейросетей, экспериментов с моделями, прототипирования, исследовательских задач и перехода к продакшену через инструменты экосистемы.

      Это фреймворк глубокого обучения с динамическими графами и GPU-ускорением. Он использует tape-based reverse-mode auto-differentiation. Проект находится под PyTorch Foundation в Linux Foundation, его поддерживают Meta, Nvidia, AMD, Intel и Microsoft.

      Как работает: PyTorch используют для тренировки LLM и VLM, рекомендательных систем, reinforcement learning через TorchRL, научных исследований и перехода от прототипа к продакшену через TorchScript и ExecuTorch. В экосистеме также указаны Lightning, vLLM, Hugging Face и TorchTitan для распределённого предварительного обучения.

      В PyTorch есть torch.compile и Inductor для ускорения вычислений на GPU, LocalTensor и LocalTensorMode для локальной симуляции distributed-вычислений, FlexAttention с CPU-backend через TorchInductor C++ template, а также проверка контрактов пользовательских операций через torch.library.opcheck.

      Команда установки: PyTorch лучше ставить готовым пакетом через pip или Conda. Команду нужно выбрать в официальном селекторе под свою систему, версию Python и тип ускорения:

      https://pytorch.org/get-started/locally/

      Если нужен запуск в Docker с GPU, в README есть готовая команда:

      docker run --gpus all --rm -ti --ipc=host pytorch/pytorch:latest

      Флаг –ipc=host нужен из-за общей памяти: PyTorch использует её при работе с несколькими процессами, например в загрузчиках данных.

      Полезный блок со скидкой

      Найти репозиторий легко. Сложнее понять, что с ним делать дальше: как поднять модель локально, подключить API, собрать RAG, настроить агента, автоматизировать процесс и не превратить проект в папку с двадцатью недописанными демками.

      Если хотите разбираться в ИИ-инструментах на уровне рабочих проектов, а не просто сохранять ссылки на GitHub, посмотрите курсы по нейросетям от Яндекс Практикума. Там разбирают, как работать с нейросетями в задачах, которые ближе к продакшену: от промптов и автоматизации до ботов и ИИ-сервисов.

      Держите промокод Практикума на любой платный курс: KOD (можно просто на него нажать). Он даст скидку при покупке и позволит сэкономить на обучении.

      6. TensorFlow

      https://github.com/tensorflow/tensorflow

      Задача: TensorFlow нужен для обучения, сборки и промышленного развёртывания нейросетевых моделей. Его используют там, где важны устойчивый продакшен-пайплайн, серверная выдача моделей, мобильный и пограничный инференс.

      Это end-to-end ML-фреймворк от Google. Он работает через статический граф с режимом eager execution, даёт стабильные Python и C++ API и имеет несколько языковых привязок.

      Как работает: в экосистеме TensorFlow есть TF Serving для выдачи моделей, TFX для пайплайнов, TF Lite и LiteRT для мобильных и пограничных устройств, распределённое обучение и экспорт в SavedModel. В рабочих сценариях его используют для инференса на edge и мобильных устройствах через LiteRT, рекомендательных систем через TF Recommenders, классических CV и NLP-пайплайнов, исследовательских нейросетей с TPU.

      Команда установки: поставьте текущий релиз TensorFlow:

      pip install tensorflow

      Если нужен меньший пакет только для CPU, используйте:

      pip install tensorflow-cpu

      Обновить TensorFlow до последней версии можно так:

      pip install --upgrade tensorflow

      7. Hugging Face Transformers

      https://github.com/huggingface/transformers

      Задача: Hugging Face Transformers нужен, когда нужно запустить, дообучить или встроить предобученную модель для текста, зрения, аудио или мультимодальных задач.

      Это Python-библиотека для работы с предобученными моделями. Она даёт единое описание архитектур и интеграцию с PyTorch. В проверенных данных указаны требования: PyTorch не ниже 2.4 и Python не ниже 3.10.

      Как работает: в Transformers есть Pipeline для упрощённого инференса в NLP, компьютерном зрении и аудио, Trainer для обучения с mixed precision, torch.compile, FlashAttention и распределённым режимом, а также generate для потоковой генерации и разных стратегий декодирования.

      Библиотеку используют для дообучения LLM, эмбеддингов в RAG через sentence-transformers/all-MiniLM-L6-v2, продакшен-инференса через Trainer и Accelerate, локального запуска Whisper, DINOv3 и Gemma 4. В списке моделей указаны BERT, GPT-family, Llama, Qwen, Mistral, Gemma, Whisper, Vision Transformers и DETR.

      Команда установки: сначала создайте виртуальное окружение:

      python -m venv .my-env
      source .my-env/bin/activate

      Если используете uv, окружение можно создать так:

      uv venv .my-env
      source .my-env/bin/activate

      Установите Transformers с поддержкой PyTorch:

      pip install "transformers[torch]"

      Для uv команда такая:

      uv pip install "transformers[torch]"

      Агентные фреймворки и персональные агенты

      Этот блок про приложения, где модель получает инструменты, память, роли, задачи и сценарии выполнения. LangChain связывает модель с поиском, памятью, инструментами и агентной логикой. CrewAI раскладывает задачу между несколькими агентами. AutoGPT подходит для непрерывных процессов с событиями и расписанием. OpenClaw работает как локальный персональный агент с каналами сообщений, браузером, файлами, cron и командной строкой.

      Если нужен не список фреймворков, а сама логика агентной архитектуры, начните с пошагового разбора: как выбрать задачу, тип агента и стек.

      8. LangChain

      https://github.com/langchain-ai/langchain

      Задача: LangChain нужен, когда приложение должно не просто отправить запрос в модель, а связать модель с инструментами, памятью, поиском, извлечением данных и агентной логикой.

      Это Python-фреймворк для LLM-приложений и агентов. Он даёт модульные компоненты: цепочки, агенты, память, извлекатели, работу с инструментами и мультиагентную оркестрацию. В экосистему также входят LangGraph для графов состояний, LangSmith для наблюдаемости, оценки и развёртывания, Deep Agents для планирования и подагентов.

      Как работает: LangChain используют как связующий слой между моделью и приложением. Через него собирают RAG-пайплайны с цитированием, агентов с вызовом инструментов, извлечение структурированных данных и диалоговые интерфейсы. Поверх LangChain построены Langflow, Dify, AI-узлы n8n, ChatGPT-plugins и корпоративные помощники.

      В 2026 году в LangChain появились create_agent с middleware, init_chat_model с метаданными для LangSmith, поддержка подключаемой песочницы в deepagents и Responses API как стандартный вариант для OpenAI в deepagents.

      Команда установки: LangChain ставится как обычный Python-пакет:

      pip install langchain

      9. CrewAI

      https://github.com/crewaiinc/crewai

      Задача: CrewAI нужен для мультиагентных сценариев, где задачу удобнее разложить между несколькими агентами с разными ролями, целями и инструментами.

      Это Python-фреймворк для оркестрации мультиагентных систем. Он построен с нуля и не зависит от LangChain. Базовая метафора простая: агенты работают как участники команды, у каждого есть role, goal, backstory и tools. В CrewAI есть две основные абстракции: Crews для автономной совместной работы агентов и Flows для событийной оркестрации с точным управлением вызовами модели.

      Как работает: CrewAI подходит для исследовательских цепочек, анализа, контентных пайплайнов, lead-scoring с участием человека, автоответов на письма и сценариев с несколькими специализированными агентами. В проекте есть поддержка e2b и Daytona sandbox tools, AWS Bedrock V4, checkpoint forking с lineage tracking, учёт reasoning tokens и cache creation tokens, а также нативная поддержка MCP и A2A communication.

      В обычной разработке CrewAI закрывает задачи, где один агент быстро превращается в слишком большой комбайн: один собирает данные, второй проверяет, третий оформляет результат или вызывает нужный инструмент.

      Команда установки: перед установкой проверьте Python: CrewAI требует версию от 3.10 до 3.14.

      Базовая установка:

      uv pip install crewai

      Если нужны дополнительные инструменты для агентов, ставьте расширенный вариант:

      uv pip install 'crewai[tools]'

      Создать новый проект можно командой:

      crewai create crew <project_name>

      CrewAI создаст папку проекта с pyproject.toml, .env, main.py, crew.py, agents.yaml и tasks.yaml. В этих файлах описываются агенты, задачи, инструменты и точка входа проекта.

      Перед запуском нужно добавить ключи в .env: ключ модели, например OPENAI_API_KEY, и ключ Serper.dev, если в проекте используется SerperDevTool.

      Запуск из корня проекта:

      crewai run

      10. AutoGPT

      https://github.com/significant-gravitas/autogpt

      Задача: AutoGPT нужен для непрерывных агентных процессов: когда агент должен реагировать на события, запускаться по расписанию, выполнять цепочку действий и работать как сервис. Проект вырос из экспериментального автономного агента, который запускал языковые модели по циклу мысль, действие, наблюдение. В 2024–2026 годах его полностью переписали в платформу для построения и эксплуатации ИИ-агентов.

      В AutoGPT есть визуальный конструктор, маркетплейс, кредитная система биллинга и более 30 интеграций. Его используют для бизнес-автоматизации, где не хочется писать отдельный бэкенд под каждую связку действий.

      Как работает: серверная часть написана на Python и FastAPI. Граф агента хранится в FalkorDB. Основная единица работы называется блоком: это составная функция с типизированными входами и выходами. Блоки могут публиковаться как инструменты MCP.

      AutoGPT умеет запускаться от событий и расписания. В подготовленных данных указаны webhook-триггеры для GitHub push, Slack message и HTTP POST, а также cron-планировщик. За счёт этого агент можно использовать как долгоживущий процесс для цепочек вроде автотранскрипции видео, поиска трендов, агентных ETL-пайплайнов и контентных процессов.

      Команда запуска: для локального запуска AutoGPT нужен Docker, Git, npm и редактор кода. В README указаны минимальные требования: Docker Engine 20.10.0+, Docker Compose 2.0.0+, Git 2.30+, Node.js 16.x+, npm 8.x+. Поддерживаются Linux, macOS и Windows 10/11 через WSL2.

      На macOS и Linux выполните:

      curl -fsSL https://setup.agpt.co/install.sh -o install.sh && bash install.sh

      На Windows откройте PowerShell и выполните:

      powershell -c "iwr https://setup.agpt.co/install.bat -o install.bat; ./install.bat"

      Скрипт установит зависимости, настроит Docker и запустит локальный экземпляр AutoGPT.

      11. OpenClaw

      https://github.com/openclaw/openclaw

      Задача: OpenClaw нужен для локального персонального агента, который работает с сообщениями, файлами, браузером, командной строкой и задачами по расписанию. Его можно использовать как рабочий инструмент для автоматизации почты, счетов, задач GitHub, веб-скрейпинга и DevOps-скриптов на своей машине.

      Как работает: архитектура делится на три слоя. Первый отвечает за каналы: WhatsApp, Telegram, Slack, Discord, Signal, BlueBubbles iMessage, Microsoft Teams, Matrix, Feishu, LINE, Mattermost, WeChat, QQ и другие. Второй слой работает с моделями: Claude, GPT-5.x, Gemini и локальными моделями через Ollama. Третий слой отвечает за инструменты: автоматизацию браузера, canvas, узлы, cron, действия в Discord и Slack, файловую систему и командную строку.

      Gateway работает как локальный сервис: через systemd на Linux и LaunchAgent на macOS. По умолчанию он слушает ws://127.0.0.1:18789. Конфигурация и память хранятся в обычных файлах на диске, поэтому состояние агента можно проверять и переносить между окружениями.

      Команда установки: OpenClaw требует Node 24 или Node 22.14+. Рекомендуемый вариант установки:

      npm install -g openclaw@latest

      После установки запустите мастер настройки:

      openclaw onboard --install-daemon

      Эта команда настраивает OpenClaw и устанавливает Gateway daemon: на macOS через launchd, на Linux через пользовательский systemd-сервис. На Windows рекомендуемый путь — через WSL2.

      Визуальная сборка приложений и автоматизация процессов

      Этот блок про инструменты, где приложение или процесс собираются через визуальную схему. n8n связывает сервисы, кодовые вставки, расписания и модели. Dify помогает собрать LLM-приложение с RAG, агентной логикой, управлением моделями и API. Langflow подходит для прототипов RAG-чатботов, цепочек и агентных схем на базе LangChain.

      12. n8n

      https://github.com/n8n-io/n8n

      Задача: n8n нужен для автоматизации рабочих процессов: связать сервисы, добавить ветвление, вызвать модель, обработать данные, отправить результат дальше. Его удобно держать в стеке, когда задача уже выросла из одного скрипта, но отдельный сервис под неё писать рано.

      Платформа распространяется по fair-code модели под Sustainable Use License. Внутри есть визуальный редактор узлов, возможность вставлять JavaScript и Python-код, поддержка 400+/500+ интеграций и ИИ-узлы на базе LangChain. Проект написан на TypeScript.

      Как работает: в n8n рабочий процесс собирается из узлов. Часть действий можно настроить в интерфейсе, часть дописать кодом. В ИИ-сценариях доступны более 70 встроенных ИИ-узлов, интеграция с LangChain, агенты с памятью и инструментами, RAG, поддержка MCP и возможность отдать рабочий процесс наружу как MCP-сервер.

      Для рабочих окружений важны вещи вокруг выполнения: защита от SSRF, внешние секреты через 1Password и Vault, события аудита при раскрытии данных выполнения, самовосстановление Schedule node, OIDC через переменные окружения и сервис управления ключами для шифрования.

      Команда установки: для запуска через Docker сначала создайте volume для данных n8n:

      docker volume create n8n_data

      Затем запустите контейнер:

      docker run -it --rm --name n8n \
       -p 5678:5678 \
       -v n8n_data:/home/node/.n8n \
       docker.n8n.io/n8nio/n8n

      После запуска редактор будет доступен в браузере:

      http://localhost:5678

      Если нужно просто быстро посмотреть интерфейс без отдельной настройки Docker, можно запустить через npx:

      npx n8n

      13. Dify

      https://github.com/langgenius/dify

      Задача: Dify нужен, когда нужно собрать LLM-приложение с визуальной схемой, поиском по базе знаний, агентной логикой, управлением моделями и программным интерфейсом для подключения к существующему сервису.

      Платформа написана на TypeScript и Python. Она работает с OpenAI, Anthropic, Gemini, Llama, Ollama и другими поставщиками моделей. Внутри есть визуальный конструктор рабочих процессов, RAG-пайплайн, агентные стратегии Function Calling и ReAct, редактор промптов, управление моделями, наблюдаемость и Backend-as-a-Service API.

      Как работает: Dify разворачивается как набор сервисов: PostgreSQL, Redis, Qdrant или Weaviate для векторного хранилища и оркестратор рабочих процессов. В оркестраторе есть больше 14 типов узлов: LLM, Knowledge Retrieval, Code, Conditional, Iteration, Variable Aggregator, HTTP Request, Template Transform, Question Classifier, Tool, Parameter Extractor и другие. Узел с кодом работает в песочнице на Python или JavaScript.

      На практике Dify закрывает задачи вроде корпоративных QA-ботов, поддержки клиентов, внутренних помощников, генерации контента, работы с несколькими моделями и подключения LLM-функций к уже существующему приложению.

      Команда установки: склонируйте репозиторий Dify и перейдите в папку с Docker-конфигурацией:

      git clone https://github.com/langgenius/dify.git
      cd dify/docker

      Скопируйте пример переменных окружения:

      cp .env.example .env

      Запустите Dify:

      docker compose up -d

      После запуска откройте панель Dify в браузере:

      http://localhost/install

      14. Langflow

      https://github.com/langflow-ai/langflow

      Задача: Langflow нужен для быстрой сборки RAG-чатботов, цепочек с LLM и агентных сценариев через визуальный интерфейс. Его удобно брать для прототипа, когда нужно быстро проверить схему до переноса в код или до развёртывания как отдельного сервиса.

      Это визуальный конструктор LLM-пайплайнов и агентов на базе LangChain. У него есть веб-интерфейс на 127.0.0.1:7860, настольный клиент для macOS и Windows и Helm-чарт для Kubernetes. Проект принадлежит DataStax и IBM после поглощения.

      Как работает: в Langflow схема собирается из узлов, которые соответствуют компонентам LangChain. Поток можно превратить в REST API. В рабочих сценариях его используют для RAG-чатботов, мультиагентной оркестрации, пользовательских чатботов и интеграционных пайплайнов для BPM.

      В Langflow есть AI-assistant для автогенерации компонентов, CLI и V2 endpoints для управления потоками за пределами визуального конструктора, совместимость с MCP как клиентом и сервером, а также страница развёртывания с интеграцией IBM watsonx Orchestrate.

      Команда установки: для локального запуска нужны Python 3.10–3.13 и uv. Из новой папки установите Langflow:

      uv pip install langflow -U

      Запустите Langflow:

      uv run langflow run

      После запуска интерфейс откроется по адресу:

      http://127.0.0.1:7860

      Если нужен быстрый запуск в контейнере, можно использовать Docker:

      docker run -p 7860:7860 langflowai/langflow:latest

      RAG и работа с документами

      RAGFlow умеет работать с Word, PowerPoint, Excel, изображениями, сканами, структурированными данными и веб-страницами. Внутри есть DeepDoc, GraphRAG, parent-child chunking, multi-recall, fused re-ranking и цитируемые ответы.

      15. RAGFlow

      https://github.com/infiniflow/ragflow

      Задача: RAGFlow нужен для поиска и ответов по документам, где важно видеть, откуда взят каждый фрагмент ответа. Его берут для корпоративных баз знаний, исследовательских помощников, анализа данных из нескольких источников, юридических, медицинских и финансовых сценариев.

      Проект объединяет RAG-движок, глубокое понимание документов через DeepDoc, агентные возможности и базу Infinity. В Infinity совмещены плотные векторы, разреженные векторы, tensor multi-vector и полнотекстовый гибридный поиск.

      Как работает: RAGFlow умеет разбирать Word, PowerPoint, Excel, TXT, изображения, сканы, структурированные данные и веб-страницы. Внутри есть извлечение по шаблонам, визуализация нарезки текста с ручной правкой, цитируемые ответы, GraphRAG, parent-child chunking, Iteration agent component, шаблон генератора исследовательских отчётов, настраиваемые LLM и embeddings, multi-recall и fused re-ranking.

      DeepDoc поддерживает ускорение на GPU через docker-compose-gpu.yml. В рабочих системах это полезно там, где документы сложнее обычного Markdown: таблицы, сканы, презентации, иерархия разделов, вложенные фрагменты и требования к аудиту.

      Команда установки: cклонируйте репозиторий и перейдите в папку Docker:

      git clone https://github.com/infiniflow/ragflow.git
      cd ragflow/docker

      Запустите полный стек:

      docker compose -f docker-compose.yml up -d

      Проверить сервер можно через логи:

      docker logs -f ragflow-server

      Если нужен режим разработки, сначала поднимают базовые сервисы:

      docker compose -f docker/docker-compose-base.yml up -d

      Затем запускают бэкенд из корня проекта:

      uv sync --python 3.12 --all-extras
      uv run python3 download_deps.py
      pre-commit install
      source .venv/bin/activate
      export PYTHONPATH=$(pwd)
      bash docker/launch_backend_service.sh

      RAGFlow закрывает уже прикладной слой. Если нужно сначала понять механику RAG — как документы превращаются в базу знаний и почему модель отвечает по найденным фрагментам, есть отдельный разбор.

      Работа с кодом из терминала

      Claude Code читает кодовую базу, пишет тесты, чинит CI и работает с git-цепочкой. Gemini CLI подключает Gemini к терминалу, файловым операциям, shell, веб-загрузке, MCP и сценариям автоматизации.

      16. Claude Code

      https://github.com/anthropics/claude-code

      Задача: Claude Code нужен для работы с кодовой базой из терминала. Он читает проект, выполняет задачи через git-цепочку, пишет тесты, чинит CI и помогает разбирать код без перехода в отдельную среду разработки.

      Инструмент запускается командой claude в директории проекта. Он работает в командной строке, среде разработки и через @claude в GitHub PR и issues.

      Задача: Claude Code умеет планировать многошаговую переработку кода, выполнять изменения с контролем через систему разрешений, читать падающие тесты, исправлять код, следить за CI и коммитить правки. Для командных сценариев есть хуки после использования инструментов, повторное подключение MCP-серверов, режим полного экрана /tui, мобильные уведомления через Remote Control и голосовой ввод на 20 языках, включая русский.

      Для установки npm-метод указан как устаревший. Рекомендуется native installer: brew install, WinGet или пакеты дистрибутива.

      Команда установки: на macOS и Linux выполните:

      curl -fsSL https://claude.ai/install.sh | bash

      На Windows откройте PowerShell и выполните:

      irm https://claude.ai/install.ps1 | iex

      После установки перейдите в папку проекта и запустите Claude Code:

      cd <project>
      claude

      17. Gemini CLI

      https://github.com/google-gemini/gemini-cli

      Задача: Gemini CLI нужен для работы с проектом из терминала: прочитать кодовую базу, выполнить файловые операции, обратиться к командной оболочке, получить данные из веба и использовать модель в привычном окружении разработчика.

      Это открытый терминальный ИИ-агент от Google под лицензией Apache 2.0. Он интегрирует Gemini в командную оболочку и устанавливается через npm. Для личного Google-аккаунта есть бесплатный тариф: 60 запросов в минуту и 1000 запросов в день, доступ к Gemini 3 Pro с контекстом 1 млн токенов. 

      Как работает: В Gemini CLI уже встроены Google Search grounding, операции с файлами, команды оболочки, загрузка данных из веба и поддержка MCP для пользовательских интеграций. Инструмент можно использовать интерактивно, запускать в скриптах и подключать к рабочим процессам на GitHub.

      Для кода это означает обычный сценарий: открыть терминал в папке проекта, запустить gemini и дать задачу. Например, попросить объяснить архитектуру, проверить изменения, подготовить правки или запустить команду. Для автоматизации есть неинтерактивный режим через gemini -p, а для структурированного вывода — –output-format json и –output-format stream-json.

      Команда установки:

      Быстрее всего поставить Gemini CLI через npm:

      npm install -g @google/gemini-cli

      После установки запустите инструмент в директории проекта:

      gemini

      При первом запуске Gemini CLI предложит авторизоваться. Для личного аккаунта можно выбрать вход через Google. В официальной инструкции для этого варианта указан бесплатный лимит: 60 запросов в минуту и 1000 запросов в день.

      Если ставить инструмент не хочется, можно запустить его через npx:

      npx @google/gemini-cli

      На macOS и Linux есть установка через Homebrew:

      brew install gemini-cli

      После запуска можно работать с текущей директорией, подключать дополнительные папки и вызывать Gemini CLI из скриптов:

      gemini --include-directories ../lib,../docs
      gemini -p "Explain the architecture of this codebase"

      Если Claude Code или Gemini CLI уже стоят, следующий шаг — настроить скиллы: они помогают агенту не объяснять одни и те же правила каждый раз.

      Речь, изображения и видео

      Этот блок про мультимодальные задачи. Whisper превращает речь в текст, определяет язык и умеет переводить речь. ComfyUI нужен для сложных схем генерации изображений и видео через узлы. Stable Diffusion WebUI закрывает локальную генерацию изображений через браузерный интерфейс, работу с LoRA, чекпойнтами и быстрыми прогонами.

      18. Whisper

      https://github.com/openai/whisper

      Задача: Whisper нужен для распознавания и перевода речи: расшифровки подкастов, субтитров, голосовых интерфейсов, речевых помощников и потокового перевода аудио в текст.

      Это открытая модель OpenAI для ASR и speech translation. В основе архитектуры Transformer encoder-decoder. Модель обучена на 680 000 часов аудио: 438 000 часов английского, 126 000 часов неанглийской речи с переводом в английский текст и 117 000 часов неанглийской речи с расшифровкой на исходном языке.

      Как работает: Whisper поддерживает multilingual ASR, speech translation, language ID и voice activity detection в одной архитектуре через токены задач. В модельной линейке указаны tiny, base, small, medium, large-v1, large-v2, large-v3 и large-v3-turbo.

      В рабочих стеках часто используют не только официальный репозиторий, а порты для инференса: whisper.cpp на C и C++ с GGML, Apple Metal, OpenVINO, CoreML и CUDA; faster-whisper на CTranslate2; WhisperX с временными метками по словам и diarization; whisper-jax для ускорения на TPU. Whisper также используется в OpenClaw и Open WebUI для голосовых интерфейсов.

      Команда установки:

      Сначала поставьте Whisper:

      pip install -U openai-whisper

      Затем установите ffmpeg. На Ubuntu и Debian:

      sudo apt update && sudo apt install ffmpeg

      На macOS через Homebrew:

      brew install ffmpeg

      На Windows через Chocolatey:

      choco install ffmpeg

      Или через Scoop:

      scoop install ffmpeg

      После установки можно расшифровать аудио через командную строку:

      whisper audio.flac audio.mp3 audio.wav --model turbo

      Если нужно перевести речь на английский, используйте мультиязычную модель, например medium:

      whisper japanese.wav --model medium --language Japanese --task translate

      19. ComfyUI

      https://github.com/comfy-org/ComfyUI

      Задача: ComfyUI нужен для сложных пайплайнов генерации изображений и видео. Его используют, когда генерация собирается из нескольких шагов: загрузка модели, работа с CLIP, сэмплер, VAE, сохранение результата, апскейл, интерполяция кадров и дополнительные узлы. Это графический интерфейс, программный интерфейс и бэкенд для diffusion-моделей. 

      Как работает: ComfyUI строит процесс генерации как схему из узлов. Такой подход подходит для пайплайнов с ControlNet, IPAdapter, апскейлером и интерполяцией кадров. Готовый процесс можно вынести наружу через программный интерфейс.

      Новые diffusion-модели часто выходят с готовыми рабочими схемами для ComfyUI. В подготовленных данных указаны Flux, SD 3.5, Wan 2.1, HunyuanVideo и Seedance. Инструмент применяют в VFX, рекламе, геймдеве, LoRA-тренировке, пакетной генерации и связках с Photoshop или Blender через MCP и коннектор.

      Команда установки: cамый простой способ поставить ComfyUI — скачать декстопное приложение с официального сайта: https://www.comfy.org/download 

      Этот вариант подходит для Windows и macOS. После установки можно запускать ComfyUI как обычное приложение и собирать генерацию через граф из узлов.

      Для Windows есть переносимая сборка. Она подходит для запуска на Nvidia GPU или только на CPU:

      https://github.com/comfyanonymous/ComfyUI/releases/latest/download/ComfyUI_windows_portable_nvidia.7z

      После скачивания архив нужно распаковать через 7-Zip или проводник Windows. Модели в формате ckpt и safetensors обычно кладутся в папку:

      ComfyUI\models\checkpoints 

      ComfyUI хорош там, где визуальный пайплайн нужно контролировать через узлы. В параллельной ветке ИИ уже встраивают прямо в профессиональные инструменты: Claude появился в Blender, Adobe, Autodesk и Ableton.

      20. Stable Diffusion WebUI

      https://github.com/automatic1111/stable-diffusion-webui

      Задача: Stable Diffusion WebUI нужен для локальной генерации изображений через браузерный интерфейс. Его берут для быстрых прогонов LoRA, тестов промптов, работы с Civitai, локальных артов, пользовательских чекпойнтов и прототипирования без кода.

      Как работает: Stable Diffusion WebUI запускает модели семейства Stable Diffusion локально и даёт браузерную панель управления. Внутри есть txt2img, img2img, inpainting, outpainting, prompt editing, batch processing, hires fix, отдельный интерфейс для embeddings, LoRA и hypernetworks, выбор VAE, поддержка SD 2.0 и SDXL, расширения и программный интерфейс.

      Ядро собрано вокруг классического однопоточного процесса генерации. Это делает инструмент понятным для быстрых задач: выбрать модель, настроить параметры, прогнать варианты, сохранить результат.

      Команда установки: на Windows сначала установите Python 3.10.6 и отметьте пункт Add Python to PATH. Более новые версии Python в инструкции не рекомендуются из-за поддержки torch. Затем установите Git.

      Склонируйте репозиторий:

      git clone https://github.com/AUTOMATIC1111/stable-diffusion-webui.git

      Откройте папку stable-diffusion-webui и запустите файл:

      webui-user.bat

      Запускайте его обычным пользователем, без прав администратора. После первого старта WebUI сам подтянет нужные зависимости. 

      Советуем дополнительно почитать по теме: 

      Бонус для читателей

      Если хотите работать с нейронками профессионально и зарабатывать больше, — держите промокод Практикума на любой платный курс: KOD (можно просто нажать). Он даст скидку при покупке и позволит сэкономить на обучении.

      Бесплатные курсы в Практикуме тоже есть — по всем специальностям и направлениям. Начать можно в любой момент, карту привязывать не нужно.

      Вам может быть интересно
      medium