谷歌新增裸体图片警告功能
谷歌已开始为其信息应用推出一项名为“敏感内容警告”的新安全功能,旨在为用户——尤其是未成年人——提供更强的保护,防止其接触到露骨内容。该功能通过Android的SafetyCore系统使用设备端AI,检测并自动模糊疑似包含裸体的图片,确保没有任何图片数据被发送到谷歌服务器。这种以隐私为中心的方法保持了端到端加密,同时帮助用户更安全地处理潜在有害内容。
启用后,谷歌信息的新安全功能会自动模糊被标记为可能露骨的图片,并显示明确的警告,同时为用户提供多个选项:了解裸体图片的风险、屏蔽发送者、查看图片或使用“移除预览”选项重新模糊图片。当用户尝试发送或转发此类图片时,系统也会进行干预,显示一个温和的提示——“是,发送”或“不,不发送”——以鼓励用户暂停并重新考虑他们的决定,而不会直接阻止该操作。
目前,该功能仅限于静态图片,并且仅在敏感内容警告开启时在谷歌信息应用内生效。视频内容尚不支持,其他应用必须单独与Android的SafetyCore系统集成才能采用类似的保护措施。
谷歌信息中的新敏感内容警告功能设计了针对不同年龄段的保护措施。对于受监督的用户——通常是启用了家长控制的孩子——该功能默认启用且无法关闭,设置通过Family Link应用进行管理。对于13至17岁的未受监督的青少年,该功能也默认启用,但可以通过其谷歌账户设置选择关闭。而对于18岁及以上的成年人,该功能默认关闭,需手动启用。
尽管该功能于2024年10月首次宣布,但于2025年2月开始逐步推出,目前仅适用于运行谷歌信息最新测试版的特定设备。用户可以在“信息 > 保护与安全 > 管理敏感内容警告”中找到该功能。预计很快将在Android 9及以上版本(包括Android Go设备)中广泛提供。
虽然谷歌承认该系统并非完美无缺,但此次推出反映了在不损害用户隐私的前提下,朝着促进更安全、更谨慎的沟通迈出的重要一步。