首页
AI Coding
NEW
沸点
课程
直播
活动
AI刷题
APP
插件
搜索历史
清空
创作者中心
写文章
发沸点
写笔记
写代码
草稿箱
创作灵感
查看更多
会员
登录
注册
字节跳动安全中心
掘友等级
安全与风控
|
北京字节跳动科技有限公司
整体负责字节跳动公司【中国】信息安全与业务风控的建设、规划和管理工作。
获得徽章 0
动态
文章
专栏
沸点
收藏集
关注
作品
赞
3
文章 2
沸点 1
赞
3
返回
|
搜索文章
最新
热门
当数字世界的“万能钥匙”被滥用,谁来守护核心资产?来自火山的 MCP 安全授权新范式
面对由 OAuth 2.0动态客户端注册带来的灵活性与潜在风险,我们设计了从“事前预防”到“事中限制”,再到“事后兜底”的完整安全闭环
智能体防御 | 一文了解3种系统提示词加固方法
通过本最佳实践,开发者能够在不同场景中使用不同的加固方法,从而有效地控制 LLM 行为并防止智能体面临的包括提示词泄露,有害内容输出,越狱等安全威胁。
猎影计划:从密流中捕获 Cobalt Strike 的隐秘身影
Cobalt Strike只是一个缩影,更多APT攻击将走向“无签名、加密、碎片化”。火山引擎云安全团队,正在将这套检测能力进一步拓展至冰蝎、哥斯拉、Sliver以及Mythic等多种C2工具及平台。
AI时代身份验证 | 智能体身份和访问控制思考
在企业环境中引入了智能体业务,智能体在运行过程中是作为一个服务身份来运行,还是需求额外的身份?智能体在响应用户请求时是“扮演”用户,还是“代理”用户?
诱导大模型输出违规内容 | 新型“回音室”攻击和防御
“回音室攻击”(Echo Chamber)的新型越狱方法,可诱骗几乎所有主流大语言模型生成不良内容。
当AI智能体学会“欺骗”,我们如何自保?来自火山的MCP安全答卷
本文深入分析了MCP面临的七种主要安全风险,包括传统Web服务风险及工具描述投毒、间接提示词注入等新型威胁,并结合具体案例进行说明。最后,本文提出了火山引擎针对性的MCP安全架构与保障方案。
一文搞懂 | 大模型为什么出现幻觉?从成因到缓解方案
随着LLM被广泛应用于搜索、问答、医疗、金融等关键领域,这种“一本正经胡说八道”的回答不仅影响用户体验,也可能带来严重的实际风险。因此,如何识别、抑制甚至消除幻觉,已经成为亟待解决的重要课题。
AI 大脑如何被 “套路”?— 揭秘大模型提示词攻防
随着 LLM 应用场景的持续拓展与深化,一系列严峻的安全挑战接踵而至,其中提示词攻击已逐渐演变为威胁人工智能系统安全的核心隐患,亟待深入剖析与应对。
实网攻防演练来袭 | “AI告警研判官”到岗!
该智能体通过7×24小时全自动值守、智能化分析研判,实现日处理告警能力提升10倍以上,单条告警研判时效压缩至20秒级别,为关键信息基础设施防御体系构建提供了“AI 告警研判官”级的智能运营支撑。
大模型如何挖洞| 15期字节跳动安全范儿沙龙开启
3月21日14点,字节跳动安全范儿技术沙龙焕新开启,看大模型如何挖漏洞,LLM产品本身的安全风险以及深度还原DeepSeek是如何被攻击的
下一页
个人成就
文章被点赞
52
文章被阅读
54,844
掘力值
1,456
关注了
0
关注者
135
收藏集
0
关注标签
0
加入于
2021-05-06