首页
首页
AI Coding
NEW
沸点
课程
直播
活动
AI刷题
APP
插件
搜索历史
清空
创作者中心
写文章
发沸点
写笔记
写代码
草稿箱
创作灵感
查看更多
会员
登录
注册
fleur
掘友等级
获得徽章 0
动态
文章
专栏
沸点
收藏集
关注
作品
赞
15
文章 11
沸点 4
赞
15
返回
|
搜索文章
最新
热门
Attention is All You Need 论文学习
2017年Google发布的《Attention Is All You Need》论文让人工智能迈向了更广阔的发展空间,目前大模型基本基于该论文提出的Transformer模型,有基于编码器的BERT
HuggingFace概述
基本介绍 Hugging Face 是一个提供先进自然语言处理(NLP)工具的平台,支持 Transformer 模型的开发和应用。它拥有庞大的模型库和社区资源,能够满足从研究到工业应用的各种需求。类
调试中遇到的torch问题
from transformers import AdamW error 新版本中transformer已经不支持AdamW,推荐使用 from torch.optim import AdamW,亲测
Transformer底层代码分析
transformer架构 主要包括编码器和解码器的内部结构 编码器 编码器包括词元嵌入和位置编码,多头自注意力,前馈层,残差连接和层归一化,以下就是下面的相关代码解析。 位置编码和词元嵌入 将每个单
大模型基础理论学习
本文基于复旦大学的《大规模语言模型:从理论到实践》中的理论部分总结出我自己的理解,算是初步学习。 定义 大规模语言模型(Large Language Models,LLM),也称大语言模型 或大型语言
LoRA微调大模型实践
实践步骤 在MAC上微调一个大模型、导出模型并部署、暴露API给web后端,前端展示 微调模型 框架: LLama-Factory 算法:LoRA 基座模型:deepseek-ai/DeepSeek-
场景题:秒杀系统如何设计
最近在学习场景题,记录一下自己的学习。秒杀很常见,手机秒杀,茅台酒类的秒杀,为的就是以很低的价格购入超值的产品。 业务特点 瞬间并发量大,定点秒杀的话,时间到来之前,已经开始接受考验了。 库存少,上万
小白学习langchain第三弹:youtube视频信息搜索
youtube工具包介绍 工具包引入,专注于获取Youtube的自动字幕和提供方便的api,本次利用这个包来获取视频的元信息和字幕信息,以此来比对相关性 向量数据库持久化 指定文档的位置,将文档分割形
小白学习langchain第二弹:连接mysql数据库实现对话的两种方式
两种方式介绍 使用的大模型是ollama本地启动的DeepsSeek-r1:8b模型,大模型可以根据连接数据库,根据你的问题,生成SQL语句,并通过langchain提供的工具包进行sql查询,并返回
私有化DeepSeek+ollama+langchain实现RAG的问答知识库
使用私有化DeepSeek 作为白嫖党,通过部署本地的DeepSeek提供服务,既可以训练模型,也可以节省开支,并且因为有些资料是不适合互联网上传的,所以使用私有化比较合适。 本次使用基于开源跨平台大
下一页
个人成就
文章被点赞
2
文章被阅读
791
掘力值
248
关注了
3
关注者
1
收藏集
0
关注标签
7
加入于
2025-01-02