首页
首页
AI Coding
NEW
沸点
课程
直播
活动
AI刷题
APP
插件
搜索历史
清空
创作者中心
写文章
发沸点
写笔记
写代码
草稿箱
创作灵感
查看更多
会员
登录
注册
Q同学
掘友等级
学生
研究生在读,个人主页:https://jiexingqi.github.io/
获得徽章 9
动态
文章
专栏
沸点
收藏集
关注
作品
赞
1.7K
文章 1.6K
沸点 42
赞
1.7K
返回
|
搜索文章
最新
热门
论文笔记:DAPO——改进的开源GRPO强化学习系统
导语 GRPO是当前LLM强化学习的核心算法,本文作者在实验中发现了原始GRPO的一些不足,进行了几点改进,有效提升了评测性能表现。
mac本地部署Qwq-32b记录
导语 昨天看到阿里开源了Qwq-32b,号称性能可以媲美Deepseek-R1。今天晚上有空就在Mac上折腾了一下,使用ollma进行了部署,效果感觉还不错,特此记录。 环境 硬件 型号:Macboo
一张4060完成一个miniLLM全流程训练(一):预训练
大语言模型的出现引发了全世界对AI的空前关注。本文介绍一个项目MiniMind,主要帮助初学者从零开始亲手训练一个极小的语言模型,而不是仅仅进行推理!文中也给出了笔者自身的实验记录。
论文笔记:Scaling LLM Test-Time Compute Optimally can be More Effective than Scaling
导语 当一个大模型面对给定的算力,是应该更多的用于预训练还是推理?本文尝试回答这个问题。- 会议:Arxiv 2024 - 链接:[[2408.03314] Scaling LLM Test-Time
Open o1模型介绍(Learning to Reason with LLMs)
导语 本文主要整理和翻译自Open AI官网博客内容,用于了解Open AI官方对o1的描述和定位。综合了如下博客: https://openai.com/index/learning-to-reas
论文笔记:Tree of Thoughts: Deliberate Problem Solving with Large Language Models
大模型推理领域的思维链是一个常用的优化技巧,本文将其进行了拓展和一般化,考虑树结构的思维树,在解决复杂推理任务时表现出了远超一般思维链的性能表现。
新手小白装机记录
导语 今年5月份,我在淘宝上找人组装了一台游戏主机(12600kf+4060),主要用于玩游戏。那时候,配置是店铺提供的,机器也是他们组装好的,到了我这儿,只需要自己安装一下显卡就行了。后来,我在B站
Phi-3:手机上就能运行的强力语言模型
导语 phi-系列模型是微软研究团队推出的轻量级人工智能模型,旨在实现“小而精”的目标,能够实现在低功耗设备上例如智能手机和平板电脑上部署运行。截止目前,已经发布到了phi-3模型,本系列博客将沿着最
Phi-2:小型语言模型令人惊人的能力
导语 phi-系列模型是微软研究团队推出的轻量级人工智能模型,旨在实现“小而精”的目标,能够实现在低功耗设备上例如智能手机和平板电脑上部署运行。截止目前,已经发布到了phi-3模型,本系列博客将沿着最
高质量数据至关重要:phi-1.5论文笔记
导语 phi-系列模型是微软研究团队推出的轻量级人工智能模型,旨在实现“小而精”的目标,能够实现在低功耗设备上例如智能手机和平板电脑上部署运行。截止目前,已经发布到了phi-3模型,本系列博客将沿着最
下一页
个人成就
优秀创作者
文章被点赞
2,179
文章被阅读
349,379
掘力值
10,792
关注了
32
关注者
233
收藏集
1
关注标签
12
加入于
2021-12-01