首页
沸点
课程
数据标注
HOT
AI Coding
更多
直播
活动
APP
插件
直播
活动
APP
插件
搜索历史
清空
创作者中心
写文章
发沸点
写笔记
写代码
草稿箱
创作灵感
查看更多
登录
注册
大模型教程
掘友等级
工zZZz昊 大模型教程
获得徽章 0
动态
文章
专栏
沸点
收藏集
关注
作品
赞
0
文章 0
沸点 0
赞
0
返回
|
搜索文章
最新
热门
LangGraph 入门全解(一):从 LangChain 到多轮对话机器人
LangGraph由LangChain团队开发。而LangChain 诞生于 2022 年 10 月,最初只是一个帮助开发者调用大语言模型(LLM)的工具包。
小白学大模型:降低幻觉的六种方法
本文将深入探讨大语言模型幻觉的类型、成因,并结合实际具体案例,展示如何通过一系列技术手段解决这些问题。
小白学大模型:从零搭建LLaMA
LLaMA-13B 在大多数基准测试中表现优于拥有 175B 参数的 GPT-3,尽管其模型规模小了十倍。这使得 LLaMA-13B 可以在单个 GPU 上运行
大模型应用开发到底有多赚钱?看完这5个真实案例,你会惊掉下巴
如果你想更深入地学习大模型,以下是一些非常有价值的学习资源,这些资源将帮助你从不同角度学习大模型,提升你的实践能力。
8GB显存笔记本能跑多大AI模型?这个计算公式90%的人都不知道!
虽然推理时还需要一定显存做上下文缓存,但加上量化和推理优化,本地8GB显存的笔记本可以流畅运行4B模型,16GB显存笔记本跑8B模型完全OK!
普通人如何借助 Agentic RAG 打造全智能化电商客服与客户沟通体系
如果说传统 RAG 是“有问必答”的字典,那么 Agentic RAG 就是“懂你所想”的智能助理。它不再是冷冰冰的工具,而是一个可以 自主学习、自主决策、自主优化 的“虚拟员工”。
本地AI知识库问答开源技术实现(三)--配置模型和知识库
最近学的内容梳理了一遍,从基本概念理解,到动手搭建,再到参数调整,最终达到一个基本可用的状态,所有数据都在内网流转;效果没有想像中的那么完美,但是用于知识库是可行的。
本地AI知识库问答开源技术实现(二)--配置模型和知识库
配置大模型 Dify 启动后,默认为空的,从 v1.0.0 开始所有模型库(包括 Ollama )都要通过 插件 的形式安装 在 插件 -> 探索 Marketplace -> 模型 中找到 Olla
本地AI知识库问答开源技术实现(一)--安装及准备
自从 DeepSeek-R1 火出圈以来,很多个人和公司开始尝试本地化部署,以解决原来一些内部资料安全和隐私问题;我们也尝试在本地进行相关部署,以验证本地知识库是否可行,最终达到以下目的
12天带你速通大模型基础应用(四)声音克隆技术实践
CosyVoice是阿里通义开发的语音生成大模型,是大模型驱动语音合成的代表,在GitHub上已获得16.1k star。
下一页
个人成就
优秀创作者
文章被点赞
396
文章被阅读
138,181
掘力值
6,510
关注了
0
关注者
251
收藏集
0
关注标签
7
加入于
2025-05-10