首页
AI Coding
NEW
沸点
课程
直播
活动
AI刷题
APP
插件
搜索历史
清空
创作者中心
写文章
发沸点
写笔记
写代码
草稿箱
创作灵感
查看更多
会员
登录
注册
InternLM
掘友等级
获得徽章 0
动态
文章
专栏
沸点
收藏集
关注
作品
赞
1
文章 1
沸点 0
赞
1
返回
|
搜索文章
最新
热门
反着用scaling law验证数据:群聊场景指代消歧
我们之前开源了 LLM 群聊助手茴香豆(以下简称豆哥),它的特点是: 设计了一套拒答 pipeline,实用于群聊场景。 能够有效抵抗各种文本攻击、过滤无关话题,累计面对 openmmlab 数千用户
LMDeploy高效部署Llama-3-8B,1.8倍vLLM推理效率
Llama 3 近期重磅发布,发布了 8B 和 70B 参数量的模型,LMDeploy 对 Llama 3 部署进行了光速支持,同时对 LMDeploy 推理 Llama 3 进行了测试,在公平比较的
【全网首发】Llama 3 微调项目实践与教程(XTuner 版)
Llama 3 近期重磅发布,发布了 8B 和 70B 参数量的模型,XTuner 团队对 Llama 3 微调进行了光速支持!!!手把手教大家使用 XTuner 微调 Llama 3 模型。
Agent-FLAN 技术报告——社区翻译版
Agent-FLAN 技术报告于近日正式对外发布,不少社区大佬自发地参与到报告的翻译与解读中来。本文为社区用户翻译的 Agent-FLAN 技术报告原文,分享给大家~
千亿参数,百万序列 | XTuner 超长上下文训练方案
在生成式 AI 领域,长文档摘要和视频生成等任务都需要模型具有超长上下文的能力。 如何训练超长上下文的模型,既是生成式 AI 算法领域的研究热点,也是 AI Infra 领域的难点。
从大模型初探者到登上领奖台,看优秀学员郭一凡如何在实战营走花路!
书生·浦语大模型实战营第二期正在如火如荼地进行中,今天,让我们一起走进首期实战营优秀学员郭一凡的故事,故事主题关乎“成长”。
InternLM2 技术报告——社区翻译版
InternLM2技术报告于近日正式对外发布,不少社区大佬自发地参与到报告的翻译与解读中来。本文为社区用户翻译的InternLM2技术报告原文,分享给大家~
轻松玩转书生·浦语大模型趣味 Demo
书生·浦语大模型角色扮演 SIG 小组长那路带来《轻松书生·浦语大模型趣味 Demo》的实战课程 玩转书生·浦语【智能对话】、【智能体解应用题】、【多模态理解及图文创作】等趣味 Demo 操作文档:
书生·浦语大模型全链路开源体系
由上海人工智能实验室青年科学家陈恺带来《书生·浦语大模型全链路开源体系》课程的分享!! https://github.com/InternLM/InternLM/ 觉得不错 欢迎 Star 哟~ 还
6行代码,1行命令!轻松实现多模态(视觉)模型离线推理 & 在线服务
早在去年年底,LMDeploy 已经悄悄地支持了多模态(视觉)模型(下文简称 VLM)推理,只不过它静静地躺在仓库的 examples/vl 角落里,未曾与大家正式照面。 LMDeploy 开源链接:
下一页
个人成就
文章被点赞
12
文章被阅读
9,342
掘力值
438
关注了
1
关注者
5
收藏集
0
关注标签
2
加入于
2024-03-08