首页
AI Coding
NEW
沸点
课程
直播
活动
AI刷题
APP
插件
搜索历史
清空
创作者中心
写文章
发沸点
写笔记
写代码
草稿箱
创作灵感
查看更多
会员
登录
注册
袭明_
掘友等级
前端开发工程师,客户端开发工程师
|
从事过 游戏行业,教育行业
喜欢,就要做到极致
获得徽章 0
动态
文章
专栏
沸点
收藏集
关注
作品
赞
66
文章 64
沸点 2
赞
66
返回
|
搜索文章
最新
热门
docker笔记
创建docker镜像。首先要有一个linux环境,然后在这个环境下部署项目,然后做docker镜像。 然后查阅发现,windows装linux环境,可以通过 hyper-v, 或者 wsl 等方式。
五、谁更胜一筹?多模态模型VS传统方案
前言 至此,我们已经围绕VLM+LLM做了一个全栈应用 细心的朋友可能会问,一些任务,传统OCR好像也可以做,他们有什么不同? 对!当下VLM之所以达到生产标准,也得益于OCR领域多年的数据积累 OC
四、动手做VLM+LLM全栈应用!
今天,我们回收结果! 围绕在你私有的两个大模型基础上,搭建一个全栈应用,得到的结果如下: 前言 文章先进行各部分解析,然后附上了完整代码文件、环境配置以及运行操作说明,想跳过解析下文件直接跑的话,请跳
三、VLM接入开发!服务化API调用实战!
跟着上节课的内容,我们把大模型都部署好了!并成功推理起来 要怎么使用?如何接入? 刚开始可能搞不清楚 但本质上推理起来的模型就是API! 下面开始今天的内容: 1.调用API,简单上手VLM, 2.接
二、本地部署大模型
本文讨论了2025年初一意内部评估通过的VLM技术在财务审计项目中的应用,以及如何在本地部署高并发、服务化的推理模型,包括大语言模型和多模态模型。关键要点包括: VLM技术优势:在财务审计项目中,准
一、AI 大模型环境搭建
原文链接:https://gxlbvdk4ilp.feishu.cn/wiki/EhEBwfPaUiQekKkyxjLcX2PgnJc 本文讨论了预打卡课程中动手搭建实践环境的相关内容,介绍了推荐的实
NPLM (神经概率语言模型)代码练习
在NPLM之前,传统语言模型主要依赖最基本的N-Gram技术,通过统计词汇的共现概率计算词汇组合的概率。然而,这种方法在处理稀疏数据和长距离依赖遇到瓶颈。 NPLM通过利用前N-1个词来预测第N个词。
Transformer 代码实现
Transformer 组件包含:多头自注意力,逐位置前馈网络,正弦位置编码表,填充掩码,编码器层,编码器,后续掩码,解码器层,解码器,Transformer类
AI大模型 之 CBOW模型实现
Skip-Gram 模型是由中心词,来预测周围上下文。 而 CBOW 模型则是由上下文来预测中心词。
AI大模型 之 词向量(Word to Vector)
词向量 ≈ 词嵌入 词向量 和 词嵌入 都是指,将单词转换成稠密向量,然后再使用余弦相似度计算单词相似度。Skip-Gram模型,CBOW模型实践。
下一页
个人成就
文章被点赞
268
文章被阅读
35,040
掘力值
1,651
关注了
2
关注者
21
收藏集
3
关注标签
154
加入于
2021-04-23