首页
AI Coding
NEW
沸点
课程
直播
活动
AI刷题
APP
插件
搜索历史
清空
创作者中心
写文章
发沸点
写笔记
写代码
草稿箱
创作灵感
查看更多
会员
登录
注册
盛夏光年爱学习
掘友等级
不会做饭的摄影师不是合格的程序猿。
获得徽章 0
动态
文章
专栏
沸点
收藏集
关注
作品
赞
423
文章 423
沸点 0
赞
423
返回
|
搜索文章
赞
文章( 423 )
沸点( 0 )
Python asyncio:从入门到精通,一篇让你笑中带泪的异步编程指南
# Python asyncio:从入门到精通,一篇让你笑中带泪的异步编程指南 ## 引言:为什么
Qwen2.5大模型微调实战:医疗命名实体识别(NER)任务(完整代码)
Qwen2.5是通义千问团队最近开源的大语言模型,由阿里云通义实验室研发。 以Qwen2.5作为基座大语言模型,通过指令微调的方式实现命名实体识别(NER)任务,是学习LLM微调的入门任务。 本
Java多线程任务编排:结构化并发 vs CountDownLatch
在处理复杂任务依赖关系时,Java 提供了多种多线程实现方式。本文将以一个典型任务依赖图为例,对比分析结构化并发(Structured Concurrency)与传统 CountDownLatch 两
从Transformers到SGLang:LLM推理引擎探索之旅
一、引言 本文将与大家分享我们(一家AI初创公司)在LLM推理引擎方面的探索历程,分享从transformers(HuggingFace)的使用,到后续引入vLLM,再到目前正在实验的sglang
大模型国产化适配8-基于昇腾MindIE推理工具部署Qwen-72B实战(推理引擎、推理服务化)
随着 ChatGPT 的现象级走红,引领了AI大模型时代的变革,从而导致 AI 算力日益紧缺。与此同时,中美
聊一下MCP,希望能让各位清醒一点吧🧐
MCP这东西,别光看网上说,自己动手试试,一试一个不吱声,来看看一个AI应用落地实战派对MCP的体验和结论吧。
开源模型基础与能力解析——模型简介和参数解读
继上一篇之后,我们将继续深入探讨国内具有标志性的Qwen2开源大型语言模型。本文将作为"模型基础与能力解析"系列的开篇,通过Qwen2这一案例作为切入点,为读者提供一个开源大型模型的全面介绍和深入解读
LLaMA-Factory 大模型微调超简单,从零开始玩转大模型微调
为什么要使用LLaMA-Factory进行微调? 在处理大模型微调的工作中,我们常常会面临各种棘手的问题。比如,传统的微调方法不仅复杂繁琐,还对技术和资源有着很高的要求,让很多人望而却步。
LMDeploy高效部署Llama-3-8B,1.8倍vLLM推理效率
Llama 3 近期重磅发布,发布了 8B 和 70B 参数量的模型,LMDeploy 对 Llama 3 部署进行了光速支持,同时对 LMDeploy 推理 Llama 3 进行了测试,在公平比较的
Qwen2大模型微调入门实战(完整代码)
Qwen2是通义千问团队的开源大语言模型,由阿里云通义实验室研发。以Qwen2作为基座大模型,通过指令微调的方式实现高准确率的文本分类,是学习大语言模型微调的入门任务。 指令微调是一种通过在由(指令,
下一页
个人成就
文章被点赞
18
文章被阅读
25,821
掘力值
592
关注了
28
关注者
14
收藏集
28
关注标签
0
加入于
2018-08-14