构建命令行工具以利用大型语言模型生成 README

193 阅读3分钟

本周,我正在我的开源开发课程中进行第一次发布。在我的第一个版本中,我构建了一个命令行工具,旨在与 OpenAI 兼容的聊天完成 API 端点进行交互,使开发者能够利用大型语言模型(LLMs)的强大功能来转换文件。虽然许多人通过 ChatGPT 等用户友好的应用程序体验过 LLM,但这个项目让我能够以更深层次的编程方式与它们互动。通过将工具连接到这些 API,我能够利用 LLM 转换和处理文本的能力,例如翻译语言或重新格式化内容。这个版本提供了关于如何利用 LLM 解决编程中复杂文本转换任务的宝贵见解,这一技能在该领域正变得越来越重要。

Github 仓库

您可以通过访问 VShell 找到源代码,参与项目并了解更多关于 VShell 的信息。

什么是 VShell

VShell 是一个强大的命令行界面(CLI)工具,利用大型语言模型(LLM)处理输入文件并生成一个 README 文件,以解释源代码的功能及其使用方法。想象一下,如果有人给您一段源代码,而您希望对其整体功能有一个大概念,那么使用我的应用程序,它会为您提供一个清晰的视图。此外,它还与 OpenAI 的聊天完成 API(Groq)无缝集成,为您的数据处理需求提供增强功能。

特性

  • 接受多个输入文件作为命令行参数,实现简化的批处理。
  • 默认通过 stdout 直接将输出流到终端。
  • 与 OpenAI 的聊天完成 API(Groq)无缝集成以处理输入数据。
  • 将详细的错误和调试信息记录到 stderr,以便于故障排除。
  • 支持使用 .env 文件自动配置 API 密钥和其他设置值。
  • 支持将结果保存到指定输出文件而不是显示在终端(可选功能)。
  • 允许可选配置模型参数,例如用于聊天完成处理的温度(可选功能)。

如何安装 VShell

要安装和设置 VShell,请按照以下步骤操作:

  1. 确保您的系统上已安装 Node.js。
  2. 创建 Groq API 密钥
  3. 将 VShell 仓库克隆到本地机器。
  4. 在终端中导航到项目文件夹并运行:npm install
  5. 全局链接该包:npm link
  6. 创建一个 .env 文件来存储您的 Groq API 密钥和其他必要的配置值。''' #.env 文件 GROQ_API_KEY=your_groq_api_key '''

使用方法

基本上,如果您使用 Node.js,您需要通过以下命令运行它:
node server.js file_name(s) <arguments>
如果您不想每次运行时都输入 node server.js,可以使用 VShell,按以下说明操作:

  1. 确保您的项目已设置:确保您准备好了项目文件,包括 server.js 和 .env。
  2. 在 package.json 中添加 bin 字段:确保您的 package.json 有一个指向 server.js 文件的 bin 字段。以下是一个示例:
{
  "bin": {
    "vshell": "src/server.js"
  },
  "scripts": {
    "start": "node src/server.js"
  },
}
  1. 确保 server.js 文件具有可执行权限:chmod +x server.js
  2. 使用 npm link 为您的包创建全局符号链接:npm link
  3. 要运行 VShell,请使用以下命令:vshell file_name(s) <arguments>

选项

  • -V, --version : 输出版本号。
  • -d, --debug : 启用详细调试输出。
  • -u, --update : 更新 VShell 到最新版本。
  • -m, --model : 指定要使用的 LLM 模型。
  • -T, --temperature : 设置模型的温度参数(Groq)(默认值:0.2)。
  • -o, --output : 指定输出文件以保存结果。
  • -h, --help : 显示 VShell 命令的帮助信息。
  • -t, --token-usage : 指定提示和响应的令牌使用情况。

示例

要处理 README.md 文件,使用自定义温度设置并将结果保存到 output.txt,请使用:
vshell ./README.md -t 0.5 -o output.txt
此版本在保持所有必要细节的同时,提高了 README 的清晰度和专业性。