首页
沸点
课程
数据标注
HOT
AI Coding
更多
直播
活动
APP
插件
直播
活动
APP
插件
搜索历史
清空
创作者中心
写文章
发沸点
写笔记
写代码
草稿箱
创作灵感
查看更多
登录
注册
字节跳动安全中心
掘友等级
安全与风控
|
北京字节跳动科技有限公司
整体负责字节跳动公司【中国】信息安全与业务风控的建设、规划和管理工作。
获得徽章 0
动态
文章
专栏
沸点
收藏集
关注
作品
赞
3
文章 2
沸点 1
赞
3
返回
|
搜索文章
最新
热门
AI时代身份验证 | 智能体身份和访问控制思考
在企业环境中引入了智能体业务,智能体在运行过程中是作为一个服务身份来运行,还是需求额外的身份?智能体在响应用户请求时是“扮演”用户,还是“代理”用户?
诱导大模型输出违规内容 | 新型“回音室”攻击和防御
“回音室攻击”(Echo Chamber)的新型越狱方法,可诱骗几乎所有主流大语言模型生成不良内容。
当AI智能体学会“欺骗”,我们如何自保?来自火山的MCP安全答卷
本文深入分析了MCP面临的七种主要安全风险,包括传统Web服务风险及工具描述投毒、间接提示词注入等新型威胁,并结合具体案例进行说明。最后,本文提出了火山引擎针对性的MCP安全架构与保障方案。
一文搞懂 | 大模型为什么出现幻觉?从成因到缓解方案
随着LLM被广泛应用于搜索、问答、医疗、金融等关键领域,这种“一本正经胡说八道”的回答不仅影响用户体验,也可能带来严重的实际风险。因此,如何识别、抑制甚至消除幻觉,已经成为亟待解决的重要课题。
AI 大脑如何被 “套路”?— 揭秘大模型提示词攻防
随着 LLM 应用场景的持续拓展与深化,一系列严峻的安全挑战接踵而至,其中提示词攻击已逐渐演变为威胁人工智能系统安全的核心隐患,亟待深入剖析与应对。
实网攻防演练来袭 | “AI告警研判官”到岗!
该智能体通过7×24小时全自动值守、智能化分析研判,实现日处理告警能力提升10倍以上,单条告警研判时效压缩至20秒级别,为关键信息基础设施防御体系构建提供了“AI 告警研判官”级的智能运营支撑。
大模型如何挖洞| 15期字节跳动安全范儿沙龙开启
3月21日14点,字节跳动安全范儿技术沙龙焕新开启,看大模型如何挖漏洞,LLM产品本身的安全风险以及深度还原DeepSeek是如何被攻击的
NDSS 2025|Prompt泄露风险:抖音集团安全研究团队揭露多租户KV缓存共享漏洞
论文揭示了大语言模型安全领域服务框架的侧信道漏洞,利用多租户场景下的KV缓存共享机制精确恢复了用户提示词。
NDSS 2025|抖音集团安全研究团队提出机密沙箱内存管理方案WAVEN
运行在可信执行环境(TEE)内的WebAssembly(Wasm)运行时设计一套适合机密计算的内存管理方案。
抖音集团携手中国银联成立数据隐私保护创新技术联合实验室,加快助力金融科技高质量发展
本实验室将重点围绕金融行业数据隐私保护与大模型应用面临的挑战,聚焦隐私计算与AI大模型安全两个方向开展建设。
下一页
个人成就
文章被点赞
54
文章被阅读
64,038
掘力值
1,598
关注了
0
关注者
141
收藏集
0
关注标签
0
加入于
2021-05-06