真题
真题:如何初始化OpenAI客户端
client = OpenAI( api_key=os.getenv("DASHSCOPE_API_KEY"), base_url="https://dashscope.aliyuncs.com/compatible-mode/v1", )
AI生成
一、单选题
(每题5分,共6题,30分)
-
安全存储API Key的最佳实践是?
A. 直接写在代码注释中
B. 通过环境变量和配置文件加载
C. 上传到GitHub公开仓库
D. 明文嵌入代码逻辑中答案:B
-
启用流式输出的关键参数是?
A.stream=False
B.stream=1
C.stream=True
D. 无需参数,默认支持答案:C
-
对话中,大模型的角色应如何配置?
A.{"role": "user", "content": "你叫小蜜"}
B.{"role": "system", "content": "你叫公司小蜜"}
C.{"role": "assistant", "content": "我是小蜜"}
D.{"role": "admin", "content": "系统管理员"}答案:B
-
生成广告文案时,建议如何设置temperature?
A. 设为0.0(完全固定)
B. 使用默认值
C. 适当提高(如0.7)
D. 设为负值答案:C
-
当
top_p=0.5时,模型会选择哪些Token?
A. 所有可能的Token
B. 累计概率超过0.9的Token
C. 累计概率达到0.5的多个Token
D. 仅最高概率的单个Token答案:D
-
直接在代码中写入明文API Key的主要风险是?
A. 提高代码可读性
B. 容易泄露密钥且难以维护
C. 加快代码执行速度
D. 增强API调用安全性答案:B
二、多选题
-
处理私有知识时,直接传入所有背景信息可能导致哪些问题?
A. 提示词长度超过模型限制
B. 模型处理效率显著下降
C. 输出结果更具创造性
D. API Key自动加密答案:A、B
-
以下哪些参数控制生成结果的随机性?
A.temperature
B.top_p
C.max_tokens
D.frequency_penalty答案:A、B
-
缓解提示词过长的可行方法包括?
A. 使用向量数据库检索关键片段
B. 分块传入上下文信息
C. 增加temperature值
D. 关闭流式输出答案:A、B
- 关于
temperature和top_p,以下描述正确的有?
A.temperature越高,输出越固定
B.top_p=0.9时,模型可能从多个高概率Token中随机选择
C.temperature=0时,输出完全由概率最高的Token决定
D.top_p和temperature可同时设为极低值以增强确定性
答案:B、C、D