大模型的了解与初步尝试(一)

172 阅读2分钟

5 种利用大模型的方式:

  1. 使用本地知识库:通过将本地知识库中的数据进行处理和索引,使大模型能够参考这些数据来生成更准确、更有针对性的回答。例如在构建专业领域的问答系统时,将该领域的文档知识整合进来,提升模型在这个领域的回答质量。
  2. 微调(Fine - Tuning) :利用特定任务或领域的数据对已有的预训练大模型进行进一步训练,让模型更好地适配特定应用场景。
  3. 提示工程(Prompt Engineering) :精心设计输入给大模型的提示词,引导模型生成符合期望的输出,以此来提高模型在各种任务中的表现。
  4. 模型融合与集成:将多个不同的大模型或者模型与其他传统机器学习模型进行融合或集成,发挥各自的优势,以应对复杂的自然语言处理任务等。
  5. 零射击(Zero - Shot)和少射击(Few - Shot)学习:零射击学习让模型在没有针对特定任务进行专门训练的情况下完成任务,少射击学习则是给模型提供少量示例后完成任务,这两种方式能够快速应用大模型到新的任务中。

分析:

os 模块提供了与操作系统交互的各种功能,比如读取环境变量、操作文件和目录等。在这里,它主要是用于后续读取环境变量来配置语言模型的相关参数

langchain_openai 库中导入了 ChatOpenAI 类。langchain_openai 是一个与 OpenAI 的语言模型进行集成的库,通过它可以方便地在自己的项目中使用 OpenAI 的各种语言模型服务

通过 os.environ.get("LLM_MODELEND") 获取到的环境变量的值作为 model 参数传递给了 ChatOpenAI 的构造函数

调用了之前创建的 llm(即 ChatOpenAI 实例)的 predict 方法,向 OpenAI 语言模型发送了一个请求,请求内容是让模型写一句关于情人节红玫瑰的中文宣传语。模型会根据这个请求生成相应的文本内容,并将结果返回给 predict 方法,然后这个返回值会被赋值给 text 变量。

自己尝试调用openai的api实现一下

方式一:
import os
from langchain_openai import ChatOpenAI
llm = ChatOpenAI(model=os.environ.get("LLM_MODELEND"))
text = llm.predict("请给我写一句情人节红玫瑰的中文宣传语")
print(text) 

方式二:
import os
os.environ["OPENAI_API_KEY"] = '你的OpenAI Key'
from langchain_openai import OpenAI
llm = OpenAI(model_name="gpt-3.5-turbo-instruct",max_tokens=200)
text = llm.invoke("请给我写一句情人节红玫瑰的中文宣传语")
print(text)