配置大模型考虑的2个要素
- 大模型的选择
- 设置大模型参数
32K,指大模型一次能够处理23,000个Token文本。
一个Token是一个字或一个词。
豆包的模型
DeepSeek模型
-
通义千问Max:chatboot Areana基准测试中,名列全球第七。非推理性中国大模型冠军。数学和编程单项能力强,硬提示方面出色,适合需要进行数学计算和编程任务的场景。也适用于日常的智能问答、文本创作场景。采用超大规模的MOE架构,基于20万亿的Token预训练数据。
-
智谱4:参数量128K,支持JSON输出和function call,中文能力强,超过GPT。支持128k的上下文窗口长度,处理长文本。自动理解复杂的指令。适用于对中文处理要求比较高的场景。可用于处理复杂的多任务。
-
abab:适合超长文本、及时交互场景,比如在线客服、智能写作助手等。