首页
首页
AI Coding
NEW
沸点
课程
直播
活动
AI刷题
APP
插件
搜索历史
清空
创作者中心
写文章
发沸点
写笔记
写代码
草稿箱
创作灵感
查看更多
会员
登录
注册
sivdead
掘友等级
Java软件工程师
获得徽章 11
动态
文章
专栏
沸点
收藏集
关注
作品
赞
150
文章 143
沸点 7
赞
150
返回
|
搜索文章
最新
热门
大模型时代的隐私护航:数据脱敏
在大型语言模型(LLM)日益渗透我们工作与生活的当下,其强大的数据处理能力也带来了前所未有的隐私挑战。训练数据中潜在的个人可识别信息以及用户交互时产生的敏感内容,都可能被模型“记忆”并无意泄漏。
多级缓存设计:平衡性能与一致性的探索
一种基于时间戳的多级缓存实现机制MultiLevelCache,该机制针对上述挑战提出了一种解决方案。它通过组合本地缓存与远程缓存,并引入一种基于时间戳的校验机制,试图在系统性能与数据一致性之间达成平
RAG 时代的选择:从 TF-IDF 到向量,解密稀疏与稠密检索
本文对比了 RAG 中稀疏检索(如 TF-IDF/BM25,基于关键词)与稠密检索(向量嵌入,基于语义)的核心区别、优劣势。
从聊天到图表:驾驭 NL2SQL 的世界与 LLMOps 这位“管家”
本文考察了由大型语言模型(LLMs)驱动的自然语言到SQL(NL2SQL)技术的进展 ,分析了大型语言模型运维(LLMOps)在应对部署挑战(如模式复杂性、语义准确性和评估)方面的关键作用
RAG系统中元数据的应用与管理
RAG 系统想搜得又准又安全、回答得又好,很大程度上得靠用好“元数据”这种描述信息,并且还得把它管起来。
ChatGLM2-6B微调
ChatGLM-Efficient-Tuning是一个基于PEFT的高效微调工具,用于对ChatGLM-6B模型进行微调。它支持多种微调方法,包括LoRA、P-Tuning等
Windows环境使用Docker本地部署和微调CPM-Bee
本文详细介绍了在Windows环境下使用Docker本地部署和微调CPM-Bee模型的步骤。通过拉取PyTorch镜像、运行Docker容器、准备环境、下载代码和安装依赖项,实现了模型的本地部署和测试
Langchian-ChatGLM安装部署
Langchain-ChatGLM项目是一种利用 langchain 思想实现的基于本地知识库的问答应用,目标期望建立一套对中文场景与开源模型支持友好、可离线运行的知识库问答解决方案.
FlinkSQL-基于jdbc的自定义Catalog
本文介绍了如何使用基于jdbc的自定义Catalog,在FlinkSQL中实现自定义的数据库、表、函数的管理,弥补原生的JdbcCatalog不支持修改数据的缺陷。
基于k8s部署Session模式Flink集群
本文介绍了如何在k8s上部署Session模式Flink集群,包括添加serviceAccount并授权、部署JobManager和TaskManager、以及测试提交作业等步骤。
下一页
个人成就
文章被点赞
53
文章被阅读
18,887
掘力值
547
关注了
30
关注者
11
收藏集
46
关注标签
26
加入于
2018-03-12