首页
沸点
课程
数据标注
HOT
AI Coding
更多
直播
活动
APP
插件
直播
活动
APP
插件
搜索历史
清空
创作者中心
写文章
发沸点
写笔记
写代码
草稿箱
创作灵感
查看更多
登录
注册
Aruvelut
掘友等级
获得徽章 0
动态
文章
专栏
沸点
收藏集
关注
作品
赞
14
文章 14
沸点 0
赞
14
返回
|
搜索文章
赞
文章( 14 )
沸点( 0 )
深入解析大型应用架构:以dify为例进行分析
Dify 是一款开源的大语言模型(LLM)应用开发平台,旨在简化和加速生成式 AI 应用的创建和部署。 它融合了后端即服务(Backend as a Service, BaaS)和 LLMOps
FunASR:阿里巴巴开源的语音识别工具包,提供预训练模型与详细教程,一键部署多场景应用.
FunASR是由阿里巴巴开源的语音识别工具包,支持语音识别、语音活动检测、标点恢复等功能。提供预训练模型和易用接口,可快速部署。本文介绍其功能、技术原理及安装教程,附运行示例。
用 Maven 还是 Gradle?
作为Java 开发者,你平时用 Maven 还是 Gradle? 我一直用的都是 Maven,但是前几天做了一个小项目,用的是 Gradle,因为项目创建出来默认就是用的 Gradle,而且功能足够
到底什么时候该用MongoDB
写这篇文档的原因是之前作者虽然有用过MongoDB,同时也在公司里面用过MongoDB,但真正在使用的过程中产生了为什么要使用这个数据库的问题,由此有了这篇文章
LangChain应用开发指南-大模型的知识外挂RAG
在本文中,我们介绍了如何使用LangChain开发一个简单的问答应用。我们介绍了RAG的基本概念和优势,讨论了相关的LangChain组件。我们还介绍了LangChain和RAG的结合的优势和应用场景
zato,一个神奇的 Python 库!
Zato作为一个企业级的集成框架,提供了广泛的功能和灵活性,以满足不同行业和应用场景的需求。。通过其强大的服务编排、多协议支持、安全性管理等功能,Zato能够帮助企业实现系统间的高效集成和数据流动
基于llama3和langchain使用RAG搭建你的私有知识库!
LLM存在时效性和幻觉问题,在 如何用解决大模型时效性和准确性问题?RAG技术核心原理 一文中我介绍了RAG的核心原理,本文将分享如何基于llama3和langchain搭建本地私有知识库。
LLM大模型部署实战指南:Ollama简化流程,OpenLLM灵活部署,LocalAI本地优化,Dify赋能应用开发
LLM大模型部署实战指南:Ollama简化流程,OpenLLM灵活部署,LocalAI本地优化,Dify赋能应用开发 1. Ollama 部署的本地模型(🔺) Ollama 是一个开源框架,专为在本地
小白初体验,搭建openai第一步,postman发送openai请求!
引言 在现代软件开发中,Web API(Application Programming Interface)的使用已经变得非常普遍。我们可以利用API与不同的服务进行交互,从而获取数据或执行操作,经过
LLaMA-Factory 大模型微调超简单,从零开始玩转大模型微调
为什么要使用LLaMA-Factory进行微调? 在处理大模型微调的工作中,我们常常会面临各种棘手的问题。比如,传统的微调方法不仅复杂繁琐,还对技术和资源有着很高的要求,让很多人望而却步。
下一页
关注了
8
关注者
0
收藏集
1
关注标签
0
加入于
2022-11-08