首页
沸点
课程
数据标注
HOT
AI Coding
更多
直播
活动
APP
插件
直播
活动
APP
插件
搜索历史
清空
创作者中心
写文章
发沸点
写笔记
写代码
草稿箱
创作灵感
查看更多
登录
注册
lvzi
掘友等级
获得徽章 8
动态
文章
专栏
沸点
收藏集
关注
作品
赞
46
文章 44
沸点 2
赞
46
返回
|
搜索文章
最新
热门
【刷题】拷贝文件
题目 略 注意点 不要想着有什么特殊的,就是背包问题,一定有v和w两个变量。隐含了价值。 math.ceil可以实现int相反的效果
上传图片信息的方法错误导致的性能损耗
由于本地机器没有显卡,需要从本地加载视频里的关键帧调用服务器的模型服务。但是发现响应非常慢,分析后发现原因在于: 本地将图片转为了list,太大。 具体情况 一张分辨率为3840*2160的图片 pn
docker容器运行时生成的文件,宿主机上显示所有者是root用户,无权限问题
问题描述 docker容器中生成的文件,在宿主机上无法操作。在宿主机上通过ll命令可以看到,它的拥有者是root,而我们一般工作中很少能有root权限,甚至删除都必须再去镜像里操作。 原因描述 这里存
最长公共子序列变种
题目 找出a中包含b的最短子序列(子序列是非连续的) 不明白,用dp可以从a中找到chines和chins两个都和b有最长公共子序列的序列,怎么确定的选择到chins呢。 有没有人可以帮忙解答一下
llama-factory代码训练量化chatglm3
如果全参数训练chatglm3,但是显存又不够怎么办,一种方案是采用量化的模型进行训练,例如8bit、4bit量化。 这时候使用LLaMA-Factory这个项目训练就会发现,该项目并不支持量化模型下
vscode更新后连接不上服务器
用1.85.2版本,支持旧版本linux系统。 大多数旧版本linux系统不满足,新版vscode依赖,需要升级glic等。具体原因可方法可以参考官网给出的消息
chatglm3好垃圾
报错 先不说效果好不好,克隆下代码,运行有报错 先是raise ValueError(f'mutable default {type(f.default)} for field ' ValueErro
raise ValueError(f'mutable default {type(f.default)} for field ' ValueError: mut
报错代码来源 THUDM/ChatGLM3: ChatGLM3 series: Open Bilingual Chat LLMs | 开源双语对话语言模型 (github.com) 版本(2024.1
【刷题】最长公共子序列
# 子序列可以不连续 ``` def lcs(a, b): a, b = " " + a, " " + b m, n = len(a), len(b) dp = [[1] *
【刷题】二叉树的最近公共祖先,看了我的你才能看懂其他人的解释
每个解释上来就是 如果root等于p或者q,那么最近的公共祖先就是自己 凭啥啊??? p,q=5,8 比如这个图,root到5的时候,root==5,凭啥公共祖先就是5啊 我百思不得其解, 终于后来想
下一页
个人成就
文章被点赞
52
文章被阅读
48,081
掘力值
1,269
关注了
7
关注者
4
收藏集
0
关注标签
8
加入于
2022-07-20