本周,我正在我的开源开发课程中进行第一次发布。在我的第一个版本中,我构建了一个命令行工具,旨在与 OpenAI 兼容的聊天完成 API 端点进行交互,使开发者能够利用大型语言模型(LLMs)的强大功能来转换文件。虽然许多人通过 ChatGPT 等用户友好的应用程序体验过 LLM,但这个项目让我能够以更深层次的编程方式与它们互动。通过将工具连接到这些 API,我能够利用 LLM 转换和处理文本的能力,例如翻译语言或重新格式化内容。这个版本提供了关于如何利用 LLM 解决编程中复杂文本转换任务的宝贵见解,这一技能在该领域正变得越来越重要。
Github 仓库
您可以通过访问 VShell 找到源代码,参与项目并了解更多关于 VShell 的信息。
什么是 VShell
VShell 是一个强大的命令行界面(CLI)工具,利用大型语言模型(LLM)处理输入文件并生成一个 README 文件,以解释源代码的功能及其使用方法。想象一下,如果有人给您一段源代码,而您希望对其整体功能有一个大概念,那么使用我的应用程序,它会为您提供一个清晰的视图。此外,它还与 OpenAI 的聊天完成 API(Groq)无缝集成,为您的数据处理需求提供增强功能。
特性
- 接受多个输入文件作为命令行参数,实现简化的批处理。
- 默认通过 stdout 直接将输出流到终端。
- 与 OpenAI 的聊天完成 API(Groq)无缝集成以处理输入数据。
- 将详细的错误和调试信息记录到 stderr,以便于故障排除。
- 支持使用 .env 文件自动配置 API 密钥和其他设置值。
- 支持将结果保存到指定输出文件而不是显示在终端(可选功能)。
- 允许可选配置模型参数,例如用于聊天完成处理的温度(可选功能)。
如何安装 VShell
要安装和设置 VShell,请按照以下步骤操作:
- 确保您的系统上已安装 Node.js。
- 创建 Groq API 密钥。
- 将 VShell 仓库克隆到本地机器。
- 在终端中导航到项目文件夹并运行:
npm install - 全局链接该包:
npm link - 创建一个 .env 文件来存储您的 Groq API 密钥和其他必要的配置值。''' #.env 文件 GROQ_API_KEY=your_groq_api_key '''
使用方法
基本上,如果您使用 Node.js,您需要通过以下命令运行它:
node server.js file_name(s) <arguments>
如果您不想每次运行时都输入 node server.js,可以使用 VShell,按以下说明操作:
- 确保您的项目已设置:确保您准备好了项目文件,包括 server.js 和 .env。
- 在 package.json 中添加 bin 字段:确保您的 package.json 有一个指向 server.js 文件的 bin 字段。以下是一个示例:
{
"bin": {
"vshell": "src/server.js"
},
"scripts": {
"start": "node src/server.js"
},
}
- 确保 server.js 文件具有可执行权限:
chmod +x server.js - 使用 npm link 为您的包创建全局符号链接:
npm link - 要运行 VShell,请使用以下命令:
vshell file_name(s) <arguments>
选项
- -V, --version : 输出版本号。
- -d, --debug : 启用详细调试输出。
- -u, --update : 更新 VShell 到最新版本。
- -m, --model : 指定要使用的 LLM 模型。
- -T, --temperature : 设置模型的温度参数(Groq)(默认值:0.2)。
- -o, --output : 指定输出文件以保存结果。
- -h, --help : 显示 VShell 命令的帮助信息。
- -t, --token-usage : 指定提示和响应的令牌使用情况。
示例
要处理 README.md 文件,使用自定义温度设置并将结果保存到 output.txt,请使用:
vshell ./README.md -t 0.5 -o output.txt
此版本在保持所有必要细节的同时,提高了 README 的清晰度和专业性。