首页
AI Coding
NEW
沸点
课程
直播
活动
AI刷题
APP
插件
搜索历史
清空
创作者中心
写文章
发沸点
写笔记
写代码
草稿箱
创作灵感
查看更多
会员
登录
注册
大语言模型
CodeDevMaster
创建于2024-08-13
订阅专栏
大语言模型
等 11 人订阅
共17篇文章
创建于2024-08-13
订阅专栏
默认顺序
默认顺序
最早发布
最新发布
使用Transformers、ChatGLM3项目、创建FastAPI应用等方式部署调用ChatGLM3-6B模型
从零开始,手把手部署ChatGLM3-6B大语言模型。利用Transformers库加载模型,以及如何通过ChatGLM3项目提供的调用方式,最终借助FastAPI构建一个高性能、易于调用的本地API
Claude Code入门指南:开发者必备的AI编程工具
Claude Code是由 Anthropic 官方打造的交互式 AI 编程助手。它不仅仅是一个代码生成工具,它正在重塑我们的开发工作流。
Claude Code Router:一键接入多种AI模型的智能路由器
Claude Code Router:一款强大的工具,可将 Claude Code 请求路由到不同的模型,并自定义任何请求。
Gemini Balance:轻松实现Gemini API负载均衡与无缝切换的终极指南
Gemini Balance是一个基于Python FastAPI构建的开源代理服务,专门为Google Gemini API提供代理和负载均衡功能。
从零到一:打包并发布你的第一个MCP AI工具服务
本文是一份详细的端到端实战指南。将带你从头开始,使用Python和FastMCP创建一个简单的AI 工具服务,并最终学习如何使用uv将其打包、发布到PyPI,让任何人都可以通过一行命令调用你的AI功能
零基础入门MCP服务器开发:让AI助手拥有更强大的能力
本文详细介绍如何构建和配置自定义MCP服务器,赋予AI助手操作本地文件系统和获取实时天气数据的能力,全程代码实例和配置说明一步到位。
Atlassian Rovo Dev CLI:你的专属AI开发伙伴,就在命令行
Atlassian Rovo CLI将AI开发伙伴直接带入你的命令行,它不仅是编码高手,还是个项目专家。Atlassian Rovo CLI能读懂你的代码、查询Jira、总结文档,成为你最得力的AI开
Gemini CLI使用教程:在命令行中释放AI的力量
Google官方推出的gemini-cli是一个强大而简洁的命令行工具,让你可以在终端中直接与强大的 Gemini 模型进行交互。
使用Unsloth微调DeepSeek-R1蒸馏模型:低显存高效训练实践
本文以Unsloth为工具,一步步完成从环境搭建、模型加载、LoRA 配置、数据集处理、模型训练与推理,到最后模型保存与合并的完整流程。
n8n入门指南:强大的自动化工作流工具
n8n是一个强大的工作流自动化工具,允许用户通过可视化方式连接不同的应用程序和服务。它将AI功能与业务流程自动化相结合,它可以帮助开发者和非技术人员创建复杂的工作流,实现数据在不同系统间的自动传输和处
browser-use:AI驱动的浏览器自动化工具使用指南
browser-use将AI功能与强大的浏览器自动化功能相结合,通过集成Playwright工具,让AI模型自动化操作浏览器,实现网页浏览、信息提取和用户操作模拟,从而让AI代理能够无缝进行网络交互。
Qdrant向量数据库入门指南
Qdrant是一个开源的向量相似度搜索引擎,它提供了一个生产就绪的服务,通过便捷的API来存储、搜索和管理带有额外有效载荷的向量。
构建智能天气助手:基于大模型API与工具函数的调用实践
在人工智能快速发展的今天,大语言模型(LLM)已经成为构建智能应用的重要基础设施。本文将介绍如何利用大模型API和工具函数集成,构建一个能够理解自然语言并提供精准天气信息的智能助手。
使用vLLM部署DeepSeek-R1-Distill-Qwen-7B模型:从环境配置到高效推理
本文将详细介绍如何使用 vLLM 框架部署DeepSeek-R1-Distill-Qwen-7B模型,并完成高效的推理任务。将从环境配置、模型加载、推理优化等方面一步步展开,帮助快速上手vLLM并体验
从源代码编译构建vLLM并解决常见编译问题
本文详细记录了从源代码构建 vLLM 的完整过程,重点解决了编译过程中可能遇到的错误,并针对常见的编译错误提供了解决方案。
基于基础模型BERT与大语言模型ChatGLM3-6B实现文本分类、信息抽取、文本匹配等任务
在实现文本分类、信息抽取、文本匹配等任务时,可以采用两种主要的方法。1.基于基础模型进行微调训练,以适应特定任务的需求。2.基于大模型(预训练语言模型)进行任务实现。
Xinference:一款性能强大且功能全面的大模型部署与分布式推理框架
Xinference是一个性能强大且功能全面的分布式推理框架。可用于大语言模型,语音识别模型,多模态模型等各种模型的推理。通过Xinference,你可以轻松地一键部署你自己的模型或内置的前沿开源模型