V1.0 Model的问题
挑战
- 新增新的model 需要重新写一个子类
- 不同的model 请求的方式 参数不一样 需要单独进行适配
- prompt 和model是耦合的
- model的子类中 核心是 make text prompt
- 带来的问题 相同的prompt给到不同的model时 获取的结果是不同的
- 解决的办法 子类重新写一遍prompt 进一步增加了大模型的扩展成本
- 如果一个子类中 大部分功能都是自己实现的 没有必要使用抽象基类
- model的子类中 核心是 make text prompt
- 子类需要区分 LLM、chat model
v2.0设计
解决思路