Агентский CLI

ПОДКЛЮЧАЙ ЛЮБУЮ LLM.

Неважно, локальная она или внешняя. Работайте с тем, что удобно именно вам.

ANYLLM v2.5
> Explain this file @src/App.php and fix bug on line 42
Think...
✦ Applying changes to: src/App.php
│ 41 - return $data;
│ 42 + return $data ?? [];

Простая интеграция

Никаких установщиков, никаких сложных переменных окружения, никаких головных болей.

Быстрая установка
curl -sSfL https://anyllm.tech/install.sh | sh

Чем AnyLLM лучше

Перестаньте быть ограниченными своими инструментами.

Проблема конкурентов

  • Другие инструменты привязывают вас к своим облачным моделям.
  • Поддержка локальных моделей часто не работает или является второстепенной.
  • Переусложненные агенты сбивают с толку маленькие модели, такие как Phi-3 или DeepSeek (маленькая).

Подход AnyLLM

  • Подключайтесь к ЛЮБОМУ провайдеру: локальный Ollama, Gemini, OpenAI, Other.
  • Легковесная логика агента: 100% надежность даже на моделях 7B.
  • Без раздувания: чистый код без зависимостей.
Функция Другие AnyLLM
Поддержка локальных моделей Плохо / Сложно настроить Нативная (Ollama/GGUF)
Логика агента для моделей 7B Могут не подключиться Оптимизировано и просто
Привязка к поставщику Высокая Нулевая

Техническое превосходство

AnyLLM — это не просто еще одна оболочка. Это переосмысленный подход к CLI-AI взаимодействию.

⚡️

Нулевые накладные расходы

В то время как другие полагаются на тяжелые среды Python или огромные Node_modules, AnyLLM работает на нативном PHP. Использование памяти: < 40 МБ. Производительность мгновенная, даже на дешевых VPS.

🎯

Детерминированная логика

Конкуренты используют сложные "цепочки мыслей", которые сбивают с толку модели 7B и ниже что может быть проблемой для локальных моделей. Наша логика просто указывает модели что ей нужно сделать и это работает!

🔓

Истинная конфиденциальность

Нет телеметрии. Нет "посреднических" серверов. Ваши запросы идут непосредственно от вашего терминала к вашему локальному Ollama или выбранному API. 100% совместимость с OpenAI.

Больше, чем просто чат:
Ваш терминал, расширенные возможности.

01
Хирург устаревшего кода

Передайте весь устаревший файл, используя @filename, и попросите AnyLLM рефакторить его. Он читает, анализирует и точно применяет изменения.

02
Контекстно-ориентированный Grep

Перестаньте гадать. AnyLLM использует свой инструмент [[GREP]] для поиска логики по всему вашему проекту и объяснения того, как связаны части.

03
Помощник на стороне сервера

Поскольку он основан на PHP, вы можете запускать его практически на любом производственном или промежуточном сервере, где Python запрещен или недоступен.

Пример реальной утилиты
> @src/Database.php Find potential SQL injections and fix them.
"AnyLLM нашел 3 уязвимых запроса, выполнил поиск аналогичных шаблонов по всему проекту и применил патчи за 12 секунд."

Переключение с
OpenCode или Codex?

Мы сделали AnyLLM совместимым с общими шаблонами. Ваша мышечная память остается, но ограничения исчезают.

  • Стандартные заголовки OpenAI
  • Привычный синтаксис @file
  • Общий вызов инструментов
  • Легкий экспорт истории
Время миграции
< 2 мин
среднее время настройки для существующих пользователей OpenAI / Ollama
🛠

Прозрачный агент

Логика упрощена: даже малые модели (Phi-3, DeepSeek) стабильно управляют файлами.

🏠

Локальность

Полная поддержка Ollama и GGUF. Никакой привязки к облаку.