代理式命令行

连接任何大语言模型。

无论是本地还是外部模型。选择对您最方便的方式进行工作。

ANYLLM v2.5
> Explain this file @src/App.php and fix bug on line 42
Think...
✦ Applying changes to: src/App.php
│ 41 - return $data;
│ 42 + return $data ?? [];

集成简单

无需安装程序,无需复杂的环境变量,无需烦恼。

快速安装
curl -sSfL https://anyllm.tech/install.sh | sh

为什么 AnyLLM 更好

不再受工具限制。

其他工具的问题

  • 其他工具将您锁定在它们的云模型中。
  • 本地模型支持通常损坏或被忽略。
  • 过度设计的代理会混淆像 Phi-3 或 DeepSeek (small) 这样的小模型。

AnyLLM 的方式

  • 连接到任何提供商:本地 Ollama、Gemini、OpenAI、Other。
  • 轻量级代理逻辑:即使在 7B 模型上也能 100% 可靠。
  • 无冗余:干净的 代码,零依赖。
特征 竞争对手 AnyLLM
本地模型支持 差 / 难以配置 原生 (Ollama/GGUF)
7B 模型的代理逻辑 它们可能无法连接。 优化和简单
供应商锁定

技术优势

AnyLLM 不仅仅是另一个包装器。它是 CLI-AI 交互的重新设计方法。

⚡️

零运行时开销

当其他工具依赖于沉重的 Python 环境或庞大的 Node_modules 时,AnyLLM 运行在原生 PHP 上。内存占用:< 40MB。即使在低端 VPS 上,性能也是即时的。

🎯

确定性逻辑

竞争对手使用复杂的“思维链”,这会混淆 7B 模型。我们的原子代理逻辑将任务分解为二进制步骤,使本地 LLM 像 GPT-4 一样可靠。

🔓

真正的隐私

无需遥测数据。无需中间服务器。您的请求直接从您的终端发送到本地 Ollama 或您选择的 API。100% 兼容 OpenAI。

不仅仅是简单的聊天:
您的终端,更强大。

01
遗留代码外科医生

使用 @filename 传递整个遗留文件,并要求 AnyLLM 对其进行重构。它精确地读取、分析并应用差异。

02
上下文感知 Grep

停止猜测。AnyLLM 使用其 [[GREP]] 工具在您的项目中查找逻辑并解释各个部分如何连接。

03
服务器端助手

由于它是基于 PHP 的,您几乎可以在任何禁止或不可用 Python 的生产或测试服务器上运行它。

实际实用示例
> @src/Database.php Find potential SQL injections and fix them.
“AnyLLM 发现了 3 个易受攻击的查询,对类似模式进行了项目范围的搜索,并在 12 秒内应用了补丁。”

从...切换
OpenCode 或者 Codex?

我们使 AnyLLM 与常见模式兼容。您的肌肉记忆得以保留,但限制消失了。

  • 标准 OpenAI 头部
  • 熟悉的 @file 语法
  • 通用工具调用
  • 轻松导出历史记录
迁移时间
< 2 分钟
现有 OpenAI / Ollama 用户的平均设置时间
🛠

透明代理

逻辑简化:即使是小型模型(Phi-3,DeepSeek)也能稳定管理文件。

🏠

本地优先

全面支持 Ollama 和本地 GGUF 模型。无云端束缚。