稀土掘金 稀土掘金
    • 首页
    • AI Coding NEW
    • 沸点
    • 课程
    • 直播
    • 活动
    • AI刷题
    • APP
      插件
      • 搜索历史 清空
        • 写文章
        • 发沸点
        • 写笔记
        • 写代码
        • 草稿箱
        创作灵感 查看更多
    • vip
      会员
确定删除此收藏集吗
删除后此收藏集将被移除
取消
确定删除
确定删除此文章吗
删除后此文章将被从当前收藏集中移除
取消
确定删除
编辑收藏集
0 /100
LLMs
订阅
avatar
Liberalism 创作等级LV.3
更多收藏集

微信扫码分享

微信
新浪微博
QQ

3篇文章 · 0订阅
  • 基于 NVIDIA Megatron-Core 的 MoE LLM 实现和训练优化
    本文将分享阿里云人工智能平台 PAI 团队与 NVIDIA Megatron-Core 团队在 MoE (Mixture of Experts) 大型语言模型(LLM)实现与训练优化上的创新工作。
    • 阿里云大数据AI技术
    • 1年前
    • 1.4k
    • 5
    • 1
    机器学习 LLM
  • 用 bitsandbytes、4 比特量化和 QLoRA 打造亲民的 LLM
    众所周知,LLM 规模庞大,如果在也能消费类硬件中运行或训练它们将是其亲民化的巨大进步。我们之前撰写的 LLM.int8 博文 展示了我们是如何将 LLM.int8 论文 中的技术通过 bitsand
    • HuggingFace
    • 1年前
    • 1.1k
    • 13
    • 评论
    人工智能 AIGC LLM
  • 重新思考终端 LLMs 和 Agents
    LLM 和 Agent 如火如荼,有哪些用途?当此之时,终端将何往?如何发挥终端优长?笔者给出了自己的预判和建议。
    • 字节跳动_离青
    • 1年前
    • 6.6k
    • 44
    • 10
    LLM 客户端 人工智能