首页
沸点
课程
数据标注
HOT
AI Coding
更多
直播
活动
APP
插件
直播
活动
APP
插件
搜索历史
清空
创作者中心
写文章
发沸点
写笔记
写代码
草稿箱
创作灵感
查看更多
登录
注册
xhxh12345
掘友等级
误入歧途的算法工程师
获得徽章 0
动态
文章
专栏
沸点
收藏集
关注
作品
赞
130
文章 33
沸点 97
赞
130
返回
|
搜索文章
赞
文章( 33 )
沸点( 97 )
轻量图像超分辨率残差网络:Attention与ResNet融合
本文为稀土掘金技术社区首发签约文章,30天内禁止转载,30天后未获授权禁止转载,侵权必究! 一、问题背景 单图像超分辨率(SISR)是计算机视觉和图像处理领域中的经典问题,目标是从输入的低分辨率图像重
虽然炒股赚了十多万,但差点倾家荡产!劝你别入坑
今天,五阳哥不打算聊技术,而是聊一下炒股的话题。我自认为在这方面有发言权,自述一个程序员的炒股经历。
LLM常见问题(Attention 优化部分)
1. 传统 Attention 存在哪些问题? 传统的 Attention 机制忽略了源端或目标端句子中词与词之间的依赖关系。 传统的 Attention 机制过度依赖 Encoder-Decoder
LLM常见问题(思维链变体部分)
1. 为什么需要思维树 Tree of Thoughts(TOT)? 对于需要探索或预判战略的复杂任务来说,传统或简单的提示技巧是不够的。ToT 维护着一棵思维树,思维由连贯的语言序列表示,这个序列就
LLM代码实现-Qwen(下载和调用)
Qwen 基础模型已经稳定训练了大规模高质量且多样化的数据,覆盖多语言(当前以中文和英文为主),Qwen 目前有多个版本:1.8B、7B、14B、72B,同时还开源了 Qwen-VL、Qwe
LLM代码实现-Qwen(挂载知识库)
为什么要挂载知识库? LLM 在回答用户的问题时可能会产生幻觉,或者由于训练数据中不包含用户想要的内容而无法回答,通常情况下我们可以选择微调模型或者外挂知识库来缓解这类问题。微调模型的对数据和算力都有
LLM代码实现-Qwen(Function Calling)
简介 Function Calling 是一种让 Chat Completion 模型调用外部函数的能力,可以让模型不仅仅根据自身的数据库知识进行回答,而是可以额外挂载一个函数库,然后根据用户提问去函
LLM代码实现-Qwen(模型微调)
简介 LLM 通用模型在各种任务上表现良好,我们可以将它们用作对目标任务进行微调的基础。 微调允许我们使模型适应目标域和目标任务,使其可以更好地完成我们所需要的特定的任务。 目前模型微调方法主要有 F
LLM常见问题(RAG部分)
1. 什么是 Graph RAG? Graph RAG 是由悦数图数据提出的概念,是一种基于知识图谱的检索增强技术,通过构建图模型的知识表达,将实体和关系之间的联系用图的形式进行展示,然后利用大语言模
LLM常见问题(思维链部分)
1. 什么是思维链提示? 思维链(Chain-of-thought,CoT),指的是一系列有逻辑关系的思考步骤,形成一个完整的思考过程。人在日常生活中,随时随地都会用思维链来解决问题,比如工作、读书经
下一页
个人成就
文章被阅读
35
掘力值
10
关注了
3
关注者
2
收藏集
0
关注标签
0
加入于
2023-11-07