稀土掘金 稀土掘金
    • 首页
    • AI Coding NEW
    • 沸点
    • 课程
    • 直播
    • 活动
    • AI刷题
    • APP
      插件
      • 搜索历史 清空
        • 写文章
        • 发沸点
        • 写笔记
        • 写代码
        • 草稿箱
        创作灵感 查看更多
    • vip
      会员
确定删除此收藏集吗
删除后此收藏集将被移除
取消
确定删除
确定删除此文章吗
删除后此文章将被从当前收藏集中移除
取消
确定删除
编辑收藏集
0 /100
AI
订阅
avatar
Atercia
更多收藏集

微信扫码分享

微信
新浪微博
QQ

2篇文章 · 0订阅
  • 8张3090,1天压缩万亿参数大模型!3.2TB骤降至160GB,压缩率高达20倍
    【新智元导读】 最近,来自ISTA的研究人员提出了一种全新的模型量化方法QMoE,可以将1.6万亿个参数的SwitchTransformer压缩到160GB以下(每个参数0.8位),且精度损失很小。
    • 新智元
    • 1年前
    • 1.0k
    • 5
    • 评论
    资讯
    8张3090,1天压缩万亿参数大模型!3.2TB骤降至160GB,压缩率高达20倍
  • LangChain + ChatGLM2-6B 搭建个人专属知识库
    之前教过大家利用 langchain + ChatGLM-6B 实现个人专属知识库,非常简单易上手。最近,智谱 AI 研发团队又推出了 ChatGLM 系列的新模型 ChatGLM2-6B
    • 程序员树先生
    • 2年前
    • 20k
    • 152
    • 18
    人工智能 深度学习 神经网络
    LangChain + ChatGLM2-6B 搭建个人专属知识库