首页
AI Coding
NEW
沸点
课程
直播
活动
AI刷题
APP
插件
搜索历史
清空
创作者中心
写文章
发沸点
写笔记
写代码
草稿箱
创作灵感
查看更多
会员
登录
注册
superluckyhui
掘友等级
获得徽章 0
动态
文章
专栏
沸点
收藏集
关注
作品
赞
18
文章 18
沸点 0
赞
18
返回
|
搜索文章
赞
文章( 18 )
沸点( 0 )
LLM大模型部署实战指南:Ollama简化流程,OpenLLM灵活部署,LocalAI本地优化,Dify赋能应用开发
LLM大模型部署实战指南:Ollama简化流程,OpenLLM灵活部署,LocalAI本地优化,Dify赋能应用开发 1. Ollama 部署的本地模型(🔺) Ollama 是一个开源框架,专为在本地
搭建你的第一个Agent智能体
引言 从本节课开始,我们将实践市面上常见的几个智能体(Agent)平台。2023年是AI技术的爆发元年,而2024年则见证了更多AI应用平台的崛起。这些平台通常提供简洁直观的操作界面,如“一句话创建你
Llama 3.1 - 405B、70B 和 8B 的多语言与长上下文能力解析
Llama 3.1 发布了!今天我们迎来了 Llama 家族的新成员 Llama 3.1 进入 Hugging Face 平台。我们很高兴与 Meta 合作,确保在 Hugging Face 生态系统
大模型数据处理-数据分割的5种方案
简述 我们将一份长文本输入到LLM的时候,有时候会出现内容过长等问题,最有效的策略是将长文本进行分割。这个过程英文被称为splitting 或者 chunking。chunking通常是比较前置的阶段
LLM+本地知识库?简单又没那么简单
最近在研究如何将大语言模型结合本地知识库进行问答,虽然网上已经有很多教程,但大部分都是基于LangChain进行文本分割,然后调用模型向量化的API。这种方式的确很简单,但有这么几个前提: 大模型不使
LLM 常见问题(LangChain部分)
1. 什么是 LangChain? LangChain 是围绕 LLMs(大语言模型)建立的一个框架,其自身并不开发 LLMs,它的核心理念是为各种 LLMs 实现通用的接口,把 LLMs 相关的组件
LLM 常见问题(微调部分)
大语言模型(LLMs)微调 1. 如果想要在某个模型基础上做全参数微调,究竟需要多少显存? 这个问题首先需要了解 BF16 和 FP16 , BF16 是对 FP32 单精度浮点数截断数据,即用 8b
LLM 常见问题(进阶部分)
大语言模型(LLMs)进阶 1. 什么是 LLMs 复读机问题? LLMs复读机问题指的是模型倾向于不适当地复制用户输入的文本或者在回复中重复使用相同的句式和短语。这种倾向可能源自模型在处理输入时的一
《深入浅出LLM基础篇》(一):大模型概念与发展
本作者推出全新系列《深入浅出LLM》专栏,分为基础篇、进阶篇、实战篇等,本文为基础篇具体章节如导图所示,分别从大模型模型概念、经典模型、创新点、微调、分布式训练、数据集、RAG、Agent及项目实站!
Langchain-Chatchat+Qwen实现本地知识库
1.基础介绍 Langchain-Chatchat一种利用 langchain 思想实现的基于本地知识库的问答应用,目标期望建立一套对中文场景与开源模型支持友好、可离线运行的知识库问答解决方案。大致过
下一页
关注了
6
关注者
0
收藏集
0
关注标签
12
加入于
2022-06-27