首页
AI Coding
NEW
沸点
课程
直播
活动
AI刷题
APP
插件
搜索历史
清空
创作者中心
写文章
发沸点
写笔记
写代码
草稿箱
创作灵感
查看更多
会员
登录
注册
AI_Echoes
掘友等级
获得徽章 0
动态
文章
专栏
沸点
收藏集
关注
作品
赞
0
文章 0
沸点 0
赞
0
返回
|
搜索文章
AI_Echoes
5月前
关注
AI 大模型常见面试题(及内容解析)
大模型领域包含许多专业术语,以下是一些关键术语的解释: 人工智能(AI): 是指使计算机系统能够模拟人类智能行为,以执行任务、解决问题和学习的科学和技术。 大型语言模型(L...
0
评论
分享
AI_Echoes
5月前
关注
大模型幻觉
一、什么是大模型幻觉? 在语言模型的背景下,幻觉指的是一本正经的胡说八道:看似流畅自然的表述,实则不符合事实或者是错误的。 二、为什么LLM会产生幻觉? 有一些研究也在致力...
0
评论
分享
AI_Echoes
5月前
关注
LLMs Tokenizer Byte-Pair Encoding(BPE)
1 Byte-Pair Encoding(BPE) 如何构建词典? 准备足够的训练语料;以及期望的词表大小; 将单词拆分为字符粒度(字粒度),并在末尾添加后缀“”,统计单...
0
评论
分享
AI_Echoes
5月前
关注
AI增量预训练(Pretrain)样本拼接
增量预训练(Pretrain)样本拼接篇 一、Pretrain阶段,为什么需要拼接拼接? 二、有哪些 拼接方式? 2.1 拼接方式一:Random Concatenate ...
0
评论
分享
AI_Echoes
5月前
关注
大模型(LLMs)加速篇
当前优化模型最主要技术手段有哪些? 算法层面:蒸馏、量化 软件层面:计算图优化、模型编译 硬件层面:FP8(NVIDIA H系列GPU开始支持FP8,兼有fp16的稳定性和...
0
评论
分享
AI_Echoes
5月前
关注
大模型(LLMs)强化学习—— PPO
一、大语言模型RLHF中的PPO主要分哪些步骤? 二、举例描述一下 大语言模型的RLHF? 三、大语言模型RLHF 采样篇 什么是 PPO 中 采样过程? 介绍一下 PPO...
0
评论
分享
AI_Echoes
5月前
关注
多模态常见面试题
多模态常见面试 一、最近关注的论文,多模态视觉大模型(CLIP,DALLE)? 二、blip2的架构,优势和之前多模态模型的区别? 三、多模态融合后,怎样知道最终结果受哪种...
0
评论
分享
AI_Echoes
5月前
关注
LLM文档对话 —— pdf解析
一、为什么需要进行pdf解析? 最近在探索ChatPDF和ChatDoc等方案的思路,也就是用LLM实现文档助手。在此记录一些难题和解决方案,首 先讲解主要思想,其次以问题...
0
评论
分享
AI_Echoes
5月前
关注
AMP混合精度训练 详细解析
为什么需要 AMP混合精度训练? PyTorch 1.6版本今天发布了,带来的最大更新就是自动混合精度。release说明的标题是: Stable release of a...
0
评论
分享
AI_Echoes
5月前
关注
大模型(LLMs)进阶
一、什么是生成式大模型? 二、大模型是怎么让生成的文本丰富而不单调的呢?三、LLMs 复读机问题 什么是 LLMs 复读机问题? 为什么会出现 LLMs 复读机问题? 如何...
0
评论
分享
AI_Echoes
5月前
关注
微调方法是啥?如何微调?
微调方法是啥?如何微调? fine-tune,也叫全参微调,bert微调模型一直用的这种方法,全部参数权重参与更新以适配领域数据,效果好。 prompt-tune, 包括p...
0
评论
分享
AI_Echoes
5月前
关注
检索增强生成(RAG) 优化策略
检索增强生成(RAG) 优化策略篇 一、RAG基础功能篇 1.1 RAG 工作流程 二、RAG 各模块有哪些优化策略? 三、RAG 架构优化有哪些优化策略? 3.1 如何利...
0
1
分享
AI_Echoes
6月前
关注
大模型推理加速工具 —— vLLM
大模型推理加速工具 —— vLLM vLLM 官网 https://vllm.ai/ vLLM 官方 Documentation: https://vllm.readthe...
0
评论
分享
AI_Echoes
6月前
关注
大模型岗位面试全纪录,分享经历与感受
大模型岗位面试全纪录,分享经历与感受 1、字节 AML (offer) : 字节一如既往的注重 coding,基本每一面两道题,自己能拿到 offer 也算是运气吧。一面的...
0
评论
分享
AI_Echoes
6月前
关注
SwiftInfer —— 大模型无限流式输入推理打破多轮对话长度限制
SwiftInfer —— 大模型无限流式输入推理飙升46%,打破多轮对话长度限制 StreamingLLM 篇 一、为什么需要 StreamingLLM? 二、Strea...
0
评论
分享
AI_Echoes
6月前
关注
大模型校招大厂面试题
阿里大模型算法校招面试题(一) 自我介绍 在自我介绍环节,我清晰地阐述了个人基本信息、教育背景、工作经历和技能特长,展示了 自信和沟通能力。 技术问题回答 self-att...
0
评论
分享
AI_Echoes
6月前
关注
LLMs 测试集中数据泄露
LLMs 测试集 中 数据泄露 问题篇 一、什么是 LLMs 测试集数据泄露 问题? 二、如何解决 LLMs 测试集数据泄露 问题? 三、是否可以 避开训练集来处理 LLM...
0
评论
分享
AI_Echoes
6月前
关注
大模型(LLMs)推理
为什么大模型推理时显存涨的那么多还一直占着? 大模型在gpu和cpu上推理速度如何? 推理速度上,int8和fp16比起来怎么样? 大模型有推理能力吗? 大模型生成时的参数...
0
评论
分享
AI_Echoes
6月前
关注
大模型(LLMs)评测面
大模型怎么评测? 当前superGLUE, GLUE, 包括中文的CLUE 的benchmark都在不太合适评估大模型。可能评估推理能力、多轮对话能力是核心。 大模型的ho...
0
评论
分享
AI_Echoes
6月前
关注
基于LLM+向量库的文档对话经验面
基于LLM+向量库的文档对话 基础面 LLMs 存在模型幻觉问题,请问如何处理? 大语言模型的模型幻觉问题是指其可能生成看似合理但实际上不准确或不符合事实的内容。这是由于大...
0
评论
分享
下一页
个人成就
文章被点赞
7
文章被阅读
16,260
掘力值
1,426
关注了
0
关注者
3
收藏集
0
关注标签
5
加入于
2025-02-28