首页
AI Coding
NEW
沸点
课程
直播
活动
AI刷题
APP
插件
搜索历史
清空
创作者中心
写文章
发沸点
写笔记
写代码
草稿箱
创作灵感
查看更多
会员
登录
注册
大鲸鱼crush
掘友等级
研⑨生
|
中国人民大学
获得徽章 0
动态
文章
专栏
沸点
收藏集
关注
作品
赞
90
文章 90
沸点 0
赞
90
返回
|
搜索文章
大鲸鱼crush
研⑨生 @中国人民大学
·
1月前
关注
Transformer终结者?Google DeepMind新架构实现2倍推理速度和一半内存占用
随着大语言模型规模的不断扩大,我们似乎已经习惯了一个发展模式:更大的模型、更多的参数、更强的性能。然而,这种"暴力美学"正在遭遇瓶颈。最近,Google设计了MOR架构来升...
1
评论
分享
大鲸鱼crush
研⑨生 @中国人民大学
·
2月前
关注
海森矩阵的三种计算方法及其Pytorch实现
笔者之前写过海森向量积的计算方式,现在已经过了两年,随着pytorch的版本更新,以及网上资料的增多,海森向量积的计算方式也不断增加,本文主要将原理与具体实现进行整合,并给...
0
评论
分享
大鲸鱼crush
研⑨生 @中国人民大学
·
3月前
关注
Minion-Agent + Smolagents + DeepSeek-R1 实战教程:打造智能网页数据采集机器人
本教程将结合 Minion-Agent 框架、Smolagents 工具和 DeepSeek-R1 模型,手把手教你构建一个强大的智能网页数据采集机器人。...
1
评论
分享
大鲸鱼crush
研⑨生 @中国人民大学
·
3月前
关注
LangGraph + MCP + Ollama 实战教程:打造强大的多智能体聊天机器人
学完这个教程,你将理解 MCP 和函数调用 (Function Call) 的区别、何时使用哪种方案,以及如何用 LangGraph、MCP 和开源工具创建强大的智能体聊天...
3
评论
分享
大鲸鱼crush
研⑨生 @中国人民大学
·
3月前
关注
DeepSeek-R1 + RAG 完全实战教程:从零打造超低成本智能文档问答系统
本教程将手把手教你结合 LangChain 技术,用 DeepSeek-R1 构建一个具备记忆能力和文档理解的 RAG 聊天机器人。即使是完全的AI新手,也能跟着这个教程成...
4
评论
分享
大鲸鱼crush
研⑨生 @中国人民大学
·
3月前
关注
Mistral OCR + Gemma 3 实战指南:构建强大的文档智能分析系统
近期,Mistral AI 推出了 Mistral OCR,Google 则发布了开源模型 Gemma3。本指南面向开发者,将详细介绍如何将这两个模型结合,构建一个具备文档...
1
评论
分享
大鲸鱼crush
研⑨生 @中国人民大学
·
3月前
关注
OpenAI重磅更新:o3-pro模型震撼登场,价格暴降80%
兄弟们,OpenAI最近又放大招了!两项重大更新:o3模型的价格直降80%;发布了全新的o3-pro模型。...
0
评论
分享
大鲸鱼crush
研⑨生 @中国人民大学
·
4月前
关注
从零构建智能对话系统:LangGraph + DeepSeek-R1 + Agentic RAG
这篇教程将讲解如何结合多种先进技术,构建一个功能强大的智能对话系统。即使你对AI领域知识不甚了解,也能轻松跟上这个教程的步伐。...
9
评论
分享
大鲸鱼crush
研⑨生 @中国人民大学
·
4月前
关注
Qwen3 本地部署指南:打造完全离线的AI助手
Qwen3 是阿里巴巴 Qwen 团队推出的最新开源大语言模型,它提供了令人印象深刻的性能,同时具备高度模块化和强大的工具调用能力。本指南将详细介绍如何在本地机器上部署 Q...
1
评论
分享
大鲸鱼crush
研⑨生 @中国人民大学
·
4月前
关注
深度学习特征融合策略梳理与指南
说到深度学习的特征融合,最近在做一个分割项目,在特征融合方面踩了不少坑,想和大家详细分享一下我的经验和理解。...
0
评论
分享
大鲸鱼crush
研⑨生 @中国人民大学
·
4月前
关注
PyTorch 模型训练常用加速技巧:让你的训练过程飞起来!
本文主要分享了使用pytorch训练深度学习模型时候,可以使用的十个提升模型训练速度的技巧,无需购买新硬件,即可将模型训练速度提升一倍以上...
1
评论
分享
大鲸鱼crush
研⑨生 @中国人民大学
·
4月前
关注
UNITE:如何用不到0.04%的计算量实现更优的大模型集成
本文讲解了ICLR 2025 Spotlight 中的UNITE这篇论文,这篇论文提出了一种大模型集成算法,通过较低的计算开销实现了模型集成与性能提升...
1
评论
分享
大鲸鱼crush
研⑨生 @中国人民大学
·
4月前
关注
基于PyTorch的混合专家模型实现指南
嘿,各位码农朋友们!最近我在研究这个叫"混合专家"(MoE)的模型架构,感觉这玩意简直是把我们写代码的思路搬到了AI领域,太有意思了。今天就跟大家分享一下我的心得和实现过程...
0
评论
分享
大鲸鱼crush
研⑨生 @中国人民大学
·
6月前
关注
TokenSkip:让大模型「跳步骤」推理,速度翻倍
本文将为你层层拆解TokenSkip的算法设计、理论支撑与实战效果。我们从一个简单问题开始:如果模型能“想得更快”,它是否还能“想得更好”?...
0
评论
分享
大鲸鱼crush
研⑨生 @中国人民大学
·
9月前
关注
NVIDIA提出Hymba网络,Mamba+Attenation解决transformer的长序列低效难题
本文详细讲解了NVIDIA 本月提出的 Hymba 模型架构。该架构结合了SSM和transformer,解决了传统架构处理长序列成本过高的问题...
1
评论
分享
大鲸鱼crush
研⑨生 @中国人民大学
·
9月前
关注
详解Transformer 键值 (KV) 缓存
随着模型变得越来越复杂和庞大,推理速度优化变得尤为重要,尤其是对于用户期望即时回复的聊天应用。键值缓存用于提升transformer架构模型的响应速度,本文将深入了解它的工...
0
评论
分享
大鲸鱼crush
研⑨生 @中国人民大学
·
9月前
关注
Tokenformer: 下一代Transformer架构
本文提出了Tokenformer架构,其优势在于增量学习能力:在增加模型尺寸时,无需从头开始重新训练模型,大大降低了成本。 本文由北大和谷歌进行合作,一作是北大在读博士,代...
5
评论
分享
大鲸鱼crush
研⑨生 @中国人民大学
·
11月前
关注
Adaptive-RAG:基于问题难度的自适应RAG框架
Adaptive-RAG是一种智能化的检索增强生成(简称RAG)系统。与传统RAG系统不同,Adaptive-RAG能够根据用户提问的难度自动选择最合适的处理模式,从而实现...
1
评论
分享
大鲸鱼crush
研⑨生 @中国人民大学
·
11月前
关注
CRAG: 提升RAG鲁棒性的升级版架构
在大型语言模型(LLMs)领域,检索增强生成技术的出现极大地提高了模型的表现。然而,RAG的性能严重依赖于检索文档的质量。为了解决这一问题,研究者提出了纠正式检索增强生成方...
6
评论
分享
大鲸鱼crush
研⑨生 @中国人民大学
·
11月前
关注
如何评估检索增强生成(RAG)系统:RAGAS框架与基于LlamaIndex的实现代码
本文首先介绍 RAGAS文章中提出的 RAG 评估指标(这是一个用于评估 RAG 流程的开源框架),然后再以 LlamaIndex 为例,实现整个评估过程。...
2
评论
分享
下一页
个人成就
文章被点赞
238
文章被阅读
94,190
掘力值
3,736
关注了
3
关注者
90
收藏集
0
关注标签
7
加入于
2022-05-03