稀土掘金 稀土掘金
    • 首页
    • AI Coding NEW
    • 沸点
    • 课程
    • 直播
    • 活动
    • AI刷题
    • APP
      插件
      • 搜索历史 清空
        • 写文章
        • 发沸点
        • 写笔记
        • 写代码
        • 草稿箱
        创作灵感 查看更多
    • vip
      会员
确定删除此收藏集吗
删除后此收藏集将被移除
取消
确定删除
确定删除此文章吗
删除后此文章将被从当前收藏集中移除
取消
确定删除
编辑收藏集
0 /100
redis
订阅
avatar
love_coder
更多收藏集

微信扫码分享

微信
新浪微博
QQ

1篇文章 · 0订阅
  • redis入门到精通系列(十二):看完这一篇文章别再说不懂布隆过滤器
    在对大量网站进行网页爬虫时,一般需要两步,先对url进行搜集,再对每一个url进行爬取。这里很有可能搜集到的url是重复的,因此需要在第一步对url进行去重。如何去重呢?你会想到将url放进HashSet中,但是如果url的数量过大,HashSet是撑不住的。 上面的这些场景,…
    • Java鱼仔
    • 4年前
    • 871
    • 6
    • 评论
    Redis
    redis入门到精通系列(十二):看完这一篇文章别再说不懂布隆过滤器