首页
AI Coding
数据标注
NEW
沸点
课程
直播
活动
APP
插件
搜索历史
清空
创作者中心
写文章
发沸点
写笔记
写代码
草稿箱
创作灵感
查看更多
登录
注册
确定删除此收藏集吗
删除后此收藏集将被移除
取消
确定删除
确定删除此文章吗
删除后此文章将被从当前收藏集中移除
取消
确定删除
编辑收藏集
名称:
描述:
0
/100
公开
当其他人关注此收藏集后不可再更改为隐私
隐私
仅自己可见此收藏集
取消
确定
AI大模型
订阅
llo
更多收藏集
微信扫码分享
微信
新浪微博
QQ
17篇文章 · 0订阅
使用Nodejs和Langchain开发大模型
ChatGPT非常强大,但是无法与现实世界中的应用直接相结合。本文将介绍如何使用nodejs和langchain,使用大模型调外部接口、实现知识库问答。
大模型私人定制:5分钟教你不写一行代码微调构建属于你的大模型(使用llama-factory微调Qwen大模型)
本文介绍了使用llama-factory微调大模型的方法,无需编程即可将通用模型转化为领域专家。涵盖微调原理(如LORA高效调参)、环境搭建、数据集构建、参数设置及实战步骤,并演示了模型评测对比。
语音识别(ASR)--语音转文字
一起养成写作习惯!这是我参与「掘金日新计划 · 4 月更文挑战」的第15天 语音识别的基本原理 语音识别系统本质上是一种模式识别系统,包括特征提取、模式匹配、参考模式库等三个基本单元,它的基本结构如下
告别轮询,SSE 流式传输可太香了!
今天想和大家分享的一个技术是 SSE 流式传输 。如标题所言,通过 SSE 流式传输的方式可以让我们不再通过轮询的方式获取服务端返回的结果,进而提升前端页面的性能。 对于需要轮询的业务场景来说,采用
Node.js与AIGC结合形成的情感分析师
前言 在数字时代洪流中,技术的每一次革新都预示着新时代的曙光。当Node.js,这一服务器端JavaScript的璀璨明星,遇见ChatGPT,OpenAI孕育的划时代语言模型,一场前所未有的技术交响
全新的编程范式:编程向 传统编程+AIGC的转变
前言: 随着人工智能(AI)技术的蓬勃发展,传统编程正逐步与AI融合,开启了一个全新的编程范式。这种融合不仅保留了传统编程的精确控制能力,还引入了AI的自学习、自适应特性。AI辅助编程可以自动完成代码
揭秘In-Context Learning(ICL):大型语言模型如何通过上下文学习实现少样本高效推理[示例设计、ICL机制详解]
揭秘In-Context Learning(ICL):大型语言模型如何通过上下文学习实现少样本高效推理[示例设计、ICL机制详解] 自GPT-3首次提出了In-Context Learning(ICL
字节豆包、武大提出 CAL:通过视觉相关的 token 增强多模态对齐效果
当前主流的视觉语言模型(VLM)主要基于大语言模型(LLM)进一步微调。因此需要通过各种方式将图像映射到 LLM 的嵌入空间,然后使用自回归方式根据图像 token 预测答案。
大模型压缩量化方案怎么选?无问芯穹Qllm-Eval量化方案全面评估:多模型、多参数、多维度
最近,来自清华大学电子工程系、无问芯穹和上海交通大学的研究团队展开了一次量化方案的“大摸底”,在(Qllm-Eval)这项工作中评估了不同模型、量化不同张量类型、使用不同量化方法、在不同任务上的性能
聊聊transformers库——进阶-模型微调和保存
对模型进行微调与保存 微调(Fine-tuning)是一种迁移学习技术,通过在预训练模型的基础上进行少量训练,使模型适应新任务或新数据集。 在本节中,我们将介绍如何进行微调和复用。