首页
AI Coding
NEW
沸点
课程
直播
活动
AI刷题
APP
插件
搜索历史
清空
创作者中心
写文章
发沸点
写笔记
写代码
草稿箱
创作灵感
查看更多
会员
登录
注册
LLM面试
dududu755
创建于2025-02-17
订阅专栏
专注于提供LLM面试题
暂无订阅
共2篇文章
创建于2025-02-17
订阅专栏
默认顺序
默认顺序
最早发布
最新发布
【基于《大模型+向量库》的文档对话】
一、LLMs 存在模型幻觉问题,请问如何处理? 数据清洗和预处理:在训练大语言模型之前,对数据进行仔细的清洗和预处理是至关重 要的。删除不准确、噪声或有偏差的数据可以减少模型幻觉问题的出现。 多样化训
Attention升级面
1.传统Attention 存在哪些问题? 传统Attention存在上下文长度约束问题; 传统Attention速度慢,内存占用大; 2. Attention优化方向? 提升上下文长度 加速、减少内