首页
首页
AI Coding
NEW
沸点
课程
直播
活动
AI刷题
APP
插件
搜索历史
清空
创作者中心
写文章
发沸点
写笔记
写代码
草稿箱
创作灵感
查看更多
会员
登录
注册
lvzi
掘友等级
获得徽章 8
动态
文章
专栏
沸点
收藏集
关注
作品
赞
46
文章 44
沸点 2
赞
46
返回
|
搜索文章
赞
文章( 44 )
沸点( 2 )
python用pandas打印出三线表
pandas直接转换成html不是三线表,而三线表又是我们常用的一个功能 所以需要稍微转换一下,可以直接通过下面代码生成html的三线表,复制到网页中即可呈现三线表 转换方法 首先使用df.to_ht
python执行cmd命令,如果cmd命令需要执行的时间过长,该如何停止cmd命令
python执行cmd命令,如果cmd命令需要执行的时间过长,该如何停止cmd命令 错误示范1 采用timeout 错误示范2 超时并不会自动停止执行命令 正确方法 手动停止
windows里最需要ai的地方
Alt + Tab可以一次就切换到我想要的窗口,无实际内容,仅仅是产品需求,希望windos可以实现该功能
vllm推理模型报错 RuntimeError: Cannot re-initialize CUDA in forked subprocess. To use
报错: RuntimeError: Cannot re-initialize CUDA in forked subprocess. To use CUDA with multiprocessing,
真的有人用过codellama70b吗?
测试环境 机器: A800 * 8 抱怨 codellama-70b,推理速度巨慢,用ollama也经常卡死 在网上没有看见任何吐槽/分析其推理速度的文章 同样大小的qwen 72b无论使用trans
ollama使用手册(不断更新)
FQA Install linux安装脚本当前会尝试下载两种安装包,真实下载地址其实是github,国内的原因,很难完成下载,旧版可以通过github镜像下载,新版的下载地址没法镜像,所以需要本地先下
openr中的prm训练
依然采用自回归的训练方式,损失为每个token的交叉熵。 (commit: d36685b) 疑问 仅仅是拼接了question和answer,没有按照模板来拼? 不重要,训练推理一致即可 mask起
vscode中,安装其他版本cuda后,修改PATH变量无效
问题 前提: 以下操作全部在vscode执行。 首先安装了cuda的其他版本(原有11.4版本,现安装12.4版本) 然后在~/.bashrc中修改了PATH变量 export PATH=/usr/l
安装flash-attn失败。ERROR: Could not build wheels for flash-attn,
安装flash-attention2报错 按照官方给出的安装方法报错 完整的报错信息如下: 这里的报错其实在第16行:没能成功从github拉下whl。 原因:国内特殊的网络环境下,访问github不
docker容器运行时生成的文件,宿主机上显示所有者是root用户,无权限问题
问题描述 docker容器中生成的文件,在宿主机上无法操作。在宿主机上通过ll命令可以看到,它的拥有者是root,而我们一般工作中很少能有root权限,甚至删除都必须再去镜像里操作。 原因描述 这里存
下一页
个人成就
文章被点赞
52
文章被阅读
28,638
掘力值
1,085
关注了
7
关注者
4
收藏集
0
关注标签
8
加入于
2022-07-20