24应届生求职中QAQ

3,231 阅读5分钟

jym,有没有大佬给个机会帮忙内推一下啊,找工作太难了QAQ。

image.png

image.png

image.png

image.png

最近一直在BOOS上找工作,但是结果不太理想,一直没有找到满意的工作,有没有大佬帮忙内推一下,请私信我QAQ。

-------------------------------24/7/11------------------------------------------------

对简历进行了些优化,回复率好点了,但是还是绝大多数直接说不招应届生 优化后的简历:

image.png

项目经历

TravelDataInsight(旅游数据洞察)

Scrapy Selenium scrapy_redis mysql pandas fuzzywuzzy Hadoop pyspark pyhive

  • 项目描述: TravelDataInsight旅游数据分析项目利用Python构建分布式网络爬虫,同时从多个网络渠道(携程、去哪)获取旅游相关数据。通过Hadoop分布式文件系统(HDFS)管理海量数据,使用pyhive和pyspark清洗和预处理数据,并应用情感分析和LDA主题模型进行深度分析。最终,利用Dataease将分析结果可视化呈现,为决策者提供直观、清晰的数据展示。

  • 负责内容

    • 使用 Python 以及相关库(Scrapy、Selenium、bs 4等)构建爬虫,实现分布式爬取,从携程网和去哪网获取大量旅游相关数据。

    • 搭建基于 Hadoop 分布式文件系统(HDFS )的分布式存储系统,以有效地管理和存储大规模数据。

    • 使用pyhive和pyspark对收集到的数据进行清洗和预处理,包括去重、去噪、文本分词等步骤,以确保数据质量和一致性。

    • 运用情感分析技术对游客的评论和文章进行情感分析,以了解用户情绪、态度和意见,使用潜在狄利克雷分配(LDA )主题模型对评价中的重要主题和话题进行识别和提取。

    • 部署 Dataease 至云服务器,并将分析结果进行可视化呈现。  

选址分析系统

Python VBA Js逆向 Selenium Flask Redis Excel

  • 项目描述: 本项目设计实施了一套高效的选址系统,用于商铺位置评估和数据采集分析。系统综合从多个网站上进行数据采集,实现了对商圈和竞品分布的全面分析,提供了精确的选址建议。
  • 负责内容
    • JS逆向工程:对上上参谋和客如云平台的进行逆向,开发爬虫代码,并使用Flask将其暴漏为接口,使用Gunicorn部署至服务器,供系统调用。
    • 自动化脚本的编写:编写邮箱自动化脚本,优化邮件处理流程。
    • 性能优化:对API接口进行性能测试与调优,提升系统响应速度。  

校园U帮

微信小程序原生框架 goeasy.js 响应式布局 WEUI IM即时通信 Redis Kafka MySQL

  • 项目描述: 该项目使用微信小程序原生框架+springboot+kafaka进行开发。业务主要包含跑腿模块(发布,管理接取任务,处理问题订单)、二手商城模块(发布,管理,收藏,咨询,购买商品)、消息中心模块(私聊,个性化推送,智能提醒)等.

  • 负责内容

    • 根据登录角色权限动态渲染,提高了系统的安全性和灵活性。
    • 负责对小程序进行前端方面的优化,提升页面加载速度和用户体验。
    • 撰写插件,将商品区域功能进行封装和重复使用,提高代码复用性和开发效率。
    • 集成goeasy消息推送插件,通过IM即时通信确保实时消息的传递和推送功能。
    • 实施监听器设计模式,确保用户在各个页面都能实时监听到订单状态的变化。
    • 引入WEUI将其作为前端UI框架应用到用户端的开发中,构建出符合现代化UI设计风格的界面。
    • 完成微信公众平台内相关接口的配置,以实现与服务器的交互和功能扩展。  

Boss直聘IT岗位数据采集与分析

pymysql SmartChart pandas requests re MySQL Spark Hive sqoop

  • 项目描述: 利用网络爬虫技术从Boss直聘网站上抓取郑州IT岗位数据,并在分布式环境中进行清洗、分析最终可视化展示。目的在于为求职者提供对职位市场的深入洞察。
  • 负责内容
    • 编写网络爬虫代码,利用selenium和requests从Boss直聘网站爬取IT岗位数据。
    • 在分布式环境中利用pyspark和pyhive对爬取的数据进行清洗和整理和持久化存储,提取关键信息如职位名称、公司名称、薪资、工作经验等信息,并对异常值进行处理,将处理后的数据存入Hive数据库。
    • 通过sqoop完成从Hive至MYSQL的数据迁移。
    • 通过smartchart构建可视化大屏进行展示。

广电大数据用户画像

Hadoop HDFS Spark Hive SVM Scala Java Maven

  • 项目描述: 面对广电行业中的客户流失问题,本项目旨在通过用户画像技术来分析广电用户的特征和行为,以提供个性 化、精准化的推荐服务,从而减少客户流失和挽留客户。
  • 负责内容
    • 在项目中,负责了数据的清洗、转换和处理,以 满足建模和分析的需求。
    • 使用Spark工具进行数据统计分析,并进行建模前的预处理工作。
    • 测试评估模型的准确度。