jym,有没有大佬给个机会帮忙内推一下啊,找工作太难了QAQ。
最近一直在BOOS上找工作,但是结果不太理想,一直没有找到满意的工作,有没有大佬帮忙内推一下,请私信我QAQ。
-------------------------------24/7/11------------------------------------------------
对简历进行了些优化,回复率好点了,但是还是绝大多数直接说不招应届生 优化后的简历:
项目经历
TravelDataInsight(旅游数据洞察)
Scrapy
Selenium
scrapy_redis
mysql
pandas
fuzzywuzzy
Hadoop
pyspark
pyhive
-
项目描述: TravelDataInsight旅游数据分析项目利用Python构建分布式网络爬虫,同时从多个网络渠道(携程、去哪)获取旅游相关数据。通过Hadoop分布式文件系统(HDFS)管理海量数据,使用pyhive和pyspark清洗和预处理数据,并应用情感分析和LDA主题模型进行深度分析。最终,利用Dataease将分析结果可视化呈现,为决策者提供直观、清晰的数据展示。
-
负责内容:
-
使用 Python 以及相关库(Scrapy、Selenium、bs 4等)构建爬虫,实现分布式爬取,从携程网和去哪网获取大量旅游相关数据。
-
搭建基于 Hadoop 分布式文件系统(HDFS )的分布式存储系统,以有效地管理和存储大规模数据。
-
使用pyhive和pyspark对收集到的数据进行清洗和预处理,包括去重、去噪、文本分词等步骤,以确保数据质量和一致性。
-
运用情感分析技术对游客的评论和文章进行情感分析,以了解用户情绪、态度和意见,使用潜在狄利克雷分配(LDA )主题模型对评价中的重要主题和话题进行识别和提取。
-
部署 Dataease 至云服务器,并将分析结果进行可视化呈现。
-
选址分析系统
Python
VBA
Js逆向
Selenium
Flask
Redis
Excel
- 项目描述: 本项目设计实施了一套高效的选址系统,用于商铺位置评估和数据采集分析。系统综合从多个网站上进行数据采集,实现了对商圈和竞品分布的全面分析,提供了精确的选址建议。
- 负责内容:
- JS逆向工程:对上上参谋和客如云平台的进行逆向,开发爬虫代码,并使用Flask将其暴漏为接口,使用Gunicorn部署至服务器,供系统调用。
- 自动化脚本的编写:编写邮箱自动化脚本,优化邮件处理流程。
- 性能优化:对API接口进行性能测试与调优,提升系统响应速度。
校园U帮
微信小程序原生框架
goeasy.js
响应式布局
WEUI
IM即时通信
Redis
Kafka
MySQL
-
项目描述: 该项目使用微信小程序原生框架+springboot+kafaka进行开发。业务主要包含跑腿模块(发布,管理接取任务,处理问题订单)、二手商城模块(发布,管理,收藏,咨询,购买商品)、消息中心模块(私聊,个性化推送,智能提醒)等.
-
负责内容:
- 根据登录角色权限动态渲染,提高了系统的安全性和灵活性。
- 负责对小程序进行前端方面的优化,提升页面加载速度和用户体验。
- 撰写插件,将商品区域功能进行封装和重复使用,提高代码复用性和开发效率。
- 集成goeasy消息推送插件,通过IM即时通信确保实时消息的传递和推送功能。
- 实施监听器设计模式,确保用户在各个页面都能实时监听到订单状态的变化。
- 引入WEUI将其作为前端UI框架应用到用户端的开发中,构建出符合现代化UI设计风格的界面。
- 完成微信公众平台内相关接口的配置,以实现与服务器的交互和功能扩展。
Boss直聘IT岗位数据采集与分析
pymysql
SmartChart
pandas
requests
re
MySQL
Spark
Hive
sqoop
- 项目描述: 利用网络爬虫技术从Boss直聘网站上抓取郑州IT岗位数据,并在分布式环境中进行清洗、分析最终可视化展示。目的在于为求职者提供对职位市场的深入洞察。
- 负责内容:
- 编写网络爬虫代码,利用selenium和requests从Boss直聘网站爬取IT岗位数据。
- 在分布式环境中利用pyspark和pyhive对爬取的数据进行清洗和整理和持久化存储,提取关键信息如职位名称、公司名称、薪资、工作经验等信息,并对异常值进行处理,将处理后的数据存入Hive数据库。
- 通过sqoop完成从Hive至MYSQL的数据迁移。
- 通过smartchart构建可视化大屏进行展示。
广电大数据用户画像
Hadoop
HDFS
Spark
Hive
SVM
Scala
Java
Maven
- 项目描述: 面对广电行业中的客户流失问题,本项目旨在通过用户画像技术来分析广电用户的特征和行为,以提供个性 化、精准化的推荐服务,从而减少客户流失和挽留客户。
- 负责内容:
- 在项目中,负责了数据的清洗、转换和处理,以 满足建模和分析的需求。
- 使用Spark工具进行数据统计分析,并进行建模前的预处理工作。
- 测试评估模型的准确度。