首页
沸点
课程
数据标注
HOT
AI Coding
更多
直播
活动
APP
插件
直播
活动
APP
插件
搜索历史
清空
创作者中心
写文章
发沸点
写笔记
写代码
草稿箱
创作灵感
查看更多
登录
注册
lvzi
掘友等级
获得徽章 8
动态
文章
专栏
沸点
收藏集
关注
作品
赞
46
文章 44
沸点 2
赞
46
返回
|
搜索文章
最新
热门
NLP面试问题整理[2018年-已过时]
开放域实体关系抽取 它的结果不是用于构建知识图谱,而是存储大量的候选关系。依据置信水平来进行使用。 bert embedding的lookup BERT如何处理超过512字符 masked
键盘ctrl一直自动按住
表现为 键鼠操作效果与按住ctrl后操作一样。 原因不详 解决方法: 我是按住ctrl + shift + fn解决 还有人是按住ctrl + alt + fn解决 都试试把
mv. Permission denied
如果mv的是root文件,那么在mv到Permission denied之前的文件 那么只会copy一份到target 目录。
LlamaFactory Debug Vscode 配置
```json { // Use IntelliSense to learn about possible attributes. // Hover to view descriptions of e
openr中的prm训练
依然采用自回归的训练方式,损失为每个token的交叉熵。 (commit: d36685b) 疑问 仅仅是拼接了question和answer,没有按照模板来拼? 不重要,训练推理一致即可 mask起
ollama使用手册(不断更新)
FQA Install linux安装脚本当前会尝试下载两种安装包,真实下载地址其实是github,国内的原因,很难完成下载,旧版可以通过github镜像下载,新版的下载地址没法镜像,所以需要本地先下
真的有人用过codellama70b吗?
测试环境 机器: A800 * 8 抱怨 codellama-70b,推理速度巨慢,用ollama也经常卡死 在网上没有看见任何吐槽/分析其推理速度的文章 同样大小的qwen 72b无论使用trans
vllm推理模型报错 RuntimeError: Cannot re-initialize CUDA in forked subprocess. To use
报错: RuntimeError: Cannot re-initialize CUDA in forked subprocess. To use CUDA with multiprocessing,
windows里最需要ai的地方
Alt + Tab可以一次就切换到我想要的窗口,无实际内容,仅仅是产品需求,希望windos可以实现该功能
python执行cmd命令,如果cmd命令需要执行的时间过长,该如何停止cmd命令
python执行cmd命令,如果cmd命令需要执行的时间过长,该如何停止cmd命令 错误示范1 采用timeout 错误示范2 超时并不会自动停止执行命令 正确方法 手动停止
下一页
个人成就
文章被点赞
52
文章被阅读
48,052
掘力值
1,269
关注了
7
关注者
4
收藏集
0
关注标签
8
加入于
2022-07-20