首页
沸点
课程
数据标注
HOT
AI Coding
更多
直播
活动
APP
插件
直播
活动
APP
插件
搜索历史
清空
创作者中心
写文章
发沸点
写笔记
写代码
草稿箱
创作灵感
查看更多
登录
注册
大语言模型
用户201708
创建于2024-07-18
订阅专栏
介绍了langchian+ollama等工具和大语言模型的内容
暂无订阅
共8篇文章
创建于2024-07-18
订阅专栏
默认顺序
默认顺序
最早发布
最新发布
VLLM安装及启动模型
需要依赖 我的是5070ti 需要cuda12.8+pytorh2.9 创建conda虚拟环境,环境名称为vllm,python的版本为3.10 切换vllm环境 安装vllm 默认情况下,如果模型未
模型微调
技术架构 minerU+easydataset+llamafactory conda环境 conda配置cuda 进入conda环境 先用conda search cudatoolkit --info
Locust压测ai接口
安装miniconda然后启动虚拟环境 pip locust 测试chatflow代码 更改Authorization中的app-Jgx9XiL4q186TMHD8PJIqp7B成dify的api密钥
算力平台租用部署
两块钱一个小时租用RTX4090服务器 安装Docker 在Ubuntu 20.04上安装Docker可以通过以下步骤完成: 更新软件包索引 打开终端并执行命令以确保你的软件包索引是最新的。 bas
常用介绍
fastgpt:轻量化验证想法 dify:企业级项目实践 空白应用分为三类: 聊天助手/文本生成应用:提示词+知识库 Agent:提示词+工具+LLM+FunctionCall自主判断什么情况执行调度
localai、xinference、ollama框架构建模型
先对比LocalAi,Xinference,Ollama LocalAI LocalAI是一种专门为本地部署设计的工具,它支持多种AI模型和硬件环境。主要优点包括: 灵活性:LocalAI支持多种操作
RAG-文本向量化结合LLM做检索增强生成 nomic-embed-text:v1.5
基于RAG+大模型的应用已经成为当前AI应用领域的一个热门方向。RAG(Retrieval-Augmented Generation)将检索和生成两个步骤相结合,利用外部知识库来增强生成模型的能力(如
langchain运行本地llm
解释下langchain中各模块作用 前面文章讲了如何通过ollama运行llama3:8b和qwen2:7b 飞行模式下本机运行结果