稀土掘金 稀土掘金
    • 首页
    • AI Coding NEW
    • 沸点
    • 课程
    • 直播
    • 活动
    • AI刷题
    • APP
      插件
      • 搜索历史 清空
        • 写文章
        • 发沸点
        • 写笔记
        • 写代码
        • 草稿箱
        创作灵感 查看更多
    • vip
      会员
确定删除此收藏集吗
删除后此收藏集将被移除
取消
确定删除
确定删除此文章吗
删除后此文章将被从当前收藏集中移除
取消
确定删除
编辑收藏集
0 /100
langchain
订阅
avatar
tigershinny
更多收藏集

微信扫码分享

微信
新浪微博
QQ

2篇文章 · 0订阅
  • 大模型面试题剖析:PPO 与 GRPO 强化学习算法核心差异解析
    在大模型与强化学习交叉的技术领域面试中,PPO(Proximal Policy Optimization)和GRPO这两种算法常常成为面试官考察候选人对强化学习算法理解深度与工程实践能力的重点。
    • 艾醒
    • 1月前
    • 120
    • 点赞
    • 评论
    人工智能 机器学习 深度学习
     大模型面试题剖析:PPO 与 GRPO 强化学习算法核心差异解析
  • 微软开源的GraphRAG爆火,Github Star量破万,生成式AI进入知识图谱时代?
    LLM 很强大,但也存在一些明显缺点,比如幻觉问题、可解释性差、抓不住问题重点、隐私和安全问题等。检索增强式生成(RAG)可大幅提升 LLM 的生成质量和结果有用性。
    • 机器之心
    • 1年前
    • 466
    • 3
    • 评论
    LLM