Python 爬取 13966 条运维招聘信息,这些岗位最吃香

news/2024/9/17 16:25:39

作者 | JackTian

来源 | 杰哥的IT之旅

经常会收到读者关于一系列咨询运维方面的事情,比如:运维到底是做什么的呀?运维的薪资水平/ 待遇怎么样呢?能帮忙看下这个岗位的招聘需要对于小白来说,能否胜任的了呢?等等。

杰哥带着一种好奇心的想法,结合自身的工作经验与业界全国关于招聘运维工程师的岗位做一个初步型的分析,我的一位好朋友帮我爬取了 13966 条关于运维的招聘信息,看看有哪些数据存在相关差异化。主要包括内容:

  • 热门行业的用人需求 Top10

  • 热门城市的岗位数量 Top10

  • 岗位的省份分布

  • 不同公司规模的用人情况

  • 排名前 10 的岗位的平均薪资

  • 岗位对学历的要求

  • 运维岗位需求的词云图分布

对于本文的叙述,我们分以下三步为大家讲解。

  • 爬虫部分

  • 数据清洗

  • 数据可视化及分析

爬虫部分


本文主要爬取的是 51job 上面,关于运维相关岗位的数据,网站解析主要使用的是Xpath,数据清洗用的是 Pandas 库,而可视化主要使用的是 Pyecharts 库。

相关注释均已在代码中注明,为方便阅读,这里只展示部分代码,完整代码可查看文末部分进行获取。

# 1、岗位名称
job_name = dom.xpath('//div[@class="dw_table"]/div[@class="el"]//p/span/a[@target="_blank"]/@title')# 2、公司名称
company_name = dom.xpath('//div[@class="dw_table"]/div[@class="el"]/span[@class="t2"]/a[@target="_blank"]/@title')# 3、工作地点
address = dom.xpath('//div[@class="dw_table"]/div[@class="el"]/span[@class="t3"]/text()')# 4、工资
salary_mid = dom.xpath('//div[@class="dw_table"]/div[@class="el"]/span[@class="t4"]')
salary = [i.text for i in salary_mid]# 5、发布日期
release_time = dom.xpath('//div[@class="dw_table"]/div[@class="el"]/span[@class="t5"]/text()')# 6、获取二级网址url
deep_url = dom.xpath('//div[@class="dw_table"]/div[@class="el"]//p/span/a[@target="_blank"]/@href')# 7、爬取经验、学历信息,先合在一个字段里面,以后再做数据清洗。命名为random_all
random_all = dom_test.xpath('//div[@class="tHeader tHjob"]//div[@class="cn"]/p[@class="msg ltype"]/text()')# 8、岗位描述信息
job_describe = dom_test.xpath('//div[@class="tBorderTop_box"]//div[@class="bmsg job_msg inbox"]/p/text()')# 9、公司类型
company_type = dom_test.xpath('//div[@class="tCompany_sidebar"]//div[@class="com_tag"]/p[1]/@title')# 10、公司规模(人数)
company_size = dom_test.xpath('//div[@class="tCompany_sidebar"]//div[@class="com_tag"]/p[2]/@title')# 11、所属行业(公司)
industry = dom_test.xpath('//div[@class="tCompany_sidebar"]//div[@class="com_tag"]/p[3]/@title')

数据清洗


1)读取数据

# 下面使用到的相关库,在这里展示一下
import pandas as pd
import numpy as np
import re
import jiebadf = pd.read_csv("only_yun_wei.csv",encoding="gbk",header=None)
df.head()

2)为数据设置新的行、列索引

# 为数据框指定行索引
df.index = range(len(df))
# 为数据框指定列索引
df.columns = ["岗位名","公司名","工作地点","工资","发布日期","经验与学历","公司类型","公司规模","行业","工作描述"]
df.head()

3)去重处理

# 去重之前的记录数
print("去重之前的记录数",df.shape)
# 记录去重
df.drop_duplicates(subset=["公司名","岗位名","工作地点"],inplace=True)
# 去重之后的记录数
print("去重之后的记录数",df.shape)

4)对岗位名字段的处理

# ① 岗位字段名的探索
df["岗位名"].value_counts()
df["岗位名"] = df["岗位名"].apply(lambda x:x.lower())# ② 构造想要分析的目标岗位,做一个数据筛选
df.shape
target_job = ['运维','Linux运维','运维开发','devOps','应用运维','系统运维','数据库运维','运维安全','网络运维','桌面运维']
index = [df["岗位名"].str.count(i) for i in target_job]
index = np.array(index).sum(axis=0) > 0
job_info = df[index]
job_info.shapejob_list = ['linux运维','运维开发','devOps','应用运维','系统运维','数据库运维','运维安全','网络运维','桌面运维','it运维','软件运维','运维工程师']
job_list = np.array(job_list)
def rename(x=None,job_list=job_list):index = [i in x for i in job_list]if sum(index) > 0:return job_list[index][0]else:return x
job_info["岗位名"] = job_info["岗位名"].apply(rename)
job_info["岗位名"].value_counts()[:10]

5)工资字段的处理

job_info["工资"].str[-1].value_counts()
job_info["工资"].str[-3].value_counts()index1 = job_info["工资"].str[-1].isin(["年","月"])
index2 = job_info["工资"].str[-3].isin(["万","千"])
job_info = job_info[index1 & index2]
job_info["工资"].str[-3:].value_counts()def get_money_max_min(x):try:if x[-3] == "万":z = [float(i)*10000 for i in re.findall("[0-9]+\.?[0-9]*",x)]elif x[-3] == "千":z = [float(i) * 1000 for i in re.findall("[0-9]+\.?[0-9]*", x)]if x[-1] == "年":z = [i/12 for i in z]return zexcept:return xsalary = job_info["工资"].apply(get_money_max_min)job_info["最低工资"] = salary.str[0]
job_info["最高工资"] = salary.str[1]
job_info["工资水平"] = job_info[["最低工资","最高工资"]].mean(axis=1)

6)工作地点字段的处理

address_list = ['北京', '上海', '广州', '深圳', '杭州', '苏州', '长沙','武汉', '天津', '成都', '西安', '东莞', '合肥', '佛山','宁波', '南京', '重庆', '长春', '郑州', '常州', '福州','沈阳', '济南', '宁波', '厦门', '贵州', '珠海', '青岛','中山', '大连','昆山',"惠州","哈尔滨","昆明","南昌","无锡"]
address_list = np.array(address_list)def rename(x=None,address_list=address_list):index = [i in x for i in address_list]if sum(index) > 0:return address_list[index][0]else:return x
job_info["工作地点"] = job_info["工作地点"].apply(rename)
job_info["工作地点"].value_counts()

7)公司类型字段的处理

job_info.loc[job_info["公司类型"].apply(lambda x:len(x)<6),"公司类型"] = np.nan
job_info["公司类型"] = job_info["公司类型"].str[2:-2]
job_info["公司类型"].value_counts()

8)行业字段的处理

job_info["行业"] = job_info["行业"].apply(lambda x:re.sub(",","/",x))
job_info.loc[job_info["行业"].apply(lambda x:len(x)<6),"行业"] = np.nan
job_info["行业"] = job_info["行业"].str[2:-2].str.split("/").str[0]
job_info["行业"].value_counts()

9)经验与学历字段的处理

job_info["学历"] = job_info["经验与学历"].apply(lambda x:re.findall("本科|大专|应届生|在校生|硕士|博士",x))
def func(x):if len(x) == 0:return np.nanelif len(x) == 1 or len(x) == 2:return x[0]else:return x[2]
job_info["学历"] = job_info["学历"].apply(func)
job_info["学历"].value_counts()

10)公司规模字段的处理

def func(x):if x == "['少于50人']":return "<50"elif x == "['50-150人']":return "50-150"elif x == "['150-500人']":return '150-500'elif x == "['500-1000人']":return '500-1000'elif x == "['1000-5000人']":return '1000-5000'elif x == "['5000-10000人']":return '5000-10000'elif x == "['10000人以上']":return ">10000"else:return np.nan
job_info["公司规模"] = job_info["公司规模"].apply(func)

11)将处理好的数据,构造新数据,导出为新的 excel

feature = ["公司名","岗位名","工作地点","工资水平","发布日期","学历","公司类型","公司规模","行业","工作描述"]
final_df = job_info[feature]
final_df.to_excel(r"可视化.xlsx",encoding="gbk",index=None)

数据可视化

1)可视化大屏效果


2)热门行业的用人需求 Top10

从招聘行业的数据来看,计算机软件,计算机服务,互联网,通信行业用人需求相比其他行业占比会高。


3)热门城市的岗位数量 Top10

从热门城市来看,北上广深的一线城市,用人岗位数占比较大,不过这里的异地招聘数据及结合过往经验,偏外包性质的企业。


4)岗位的省份分布

岗位分布省份,通过最左侧的颜色棒,我们可以看出颜色最深的地区岗位招聘数越集中,相反之下,最浅的也就是岗位招聘数越少的省份。从下图来看,广东省、江苏省、上海及北京颜色相比其他省份占据分布会比较集中些。


5)不同公司规模的用人情况

行业的不同,公司规模肯定是存在有差异的。公司规模是指按有关标准和规定划分的公司规模,一般分为特大型、大型、中型、小型、微型。如下图,公司规模人数在 50-500 范围内占据 50% 以上,用人需求最高,1000-10000 范围占据不到 50 %,不过这样的公司规模已经是比较大的了。


6)排名前 10 的岗位的平均薪资

根据我的了解,比如:系统工程师、软件 / 实施工程师、运维专员 等一系列的岗位其实也是可以划分在运维领域范畴之内的,每家公司对运维工作者的岗位名称定义有所不同,为了能够更精准的筛选分析,把那些岗位暂时去掉了。留下了以下 10 个岗位名称(运维开发、运维工程师、软件运维、网络运维、系统运维、桌面运维、数据库运维、应用运维、Linux 运维、IT 运维)这些岗位名称基本是我见过招聘信息内最多的。

排名前 10 的岗位平均薪资,运维开发、应用运维、数据库运维、Linux 运维均在 1W 以上。因此,也可以看出运维开发在运维领域的优势,是占据前沿位置。


7)运维岗位的学历要求分布

从学历要求方面来看,大专及本科学历占比居多。在校生、硕士、博士基本太少了,因此会有一些我的学生群体读者会问我,对于一个应届毕业生,找运维工作好找吗?站在我个人的角度,我是不建议你毕业后去做运维的。因为运维对你个人的技术水平及工作经验有些非常高的要求,而对于一个刚毕业的学生来说,没有过多的实践经验,也不会有很大的优势,除非是这个岗位对你有极大的兴趣爱好,但凡你也可以尝试下。


8)运维岗位需求的词云图分布

从运维岗位招聘需求词云图来看,词频最多的主要包括:运维、能力、系统、维护、经验等等,因此也可以看出运维岗位对个人技术能力以及过往工作经验是要求非常高的。当然了还有很多其他相关的词频,可通过下图查看详情。


总结

介绍了这么多,相信你也对运维工程师有了初步的认识与了解,通过本篇文章你可以了解到哪些行业的对运维的用人需求是比较高的,最为招聘运维热门的城市有哪些......

运维岗位的分布、不同公司规模对运维工程师的用人情况占比、关于运维相关岗位的平均薪资、招聘运维岗位对学历的要求以及运维岗位需求词云图包括哪些词频最多,通过这一数据的分析,相信能对你在今后的运维求职方向、行业、城市以及公司规模有所初步的判断及选择,希望对你有所帮助。

推荐阅读
  • 干货!仅有 100k 参数的高效显著性检测方法

  • 阿里巴巴副总裁司罗:达摩院如何搭建NLP技术体系?

  • 重磅!CSDN 发布「AI开源贡献奖Top5」「AI新锐公司奖Top10」「AI优秀案例奖Top30」三大榜单

  • 马斯克、李彦宏、姚期智等云端纵论AI,他们都说了什么?

  • Python轻松搞定Excel中的20个常用操作

  • 厉害!国内大学生计算机编程第一人,一人挑战一个队,百度最年轻 T10,现创业自动驾驶

  • Balancer因通缩代币STA遭遇闪电贷攻击,价值50万美元资产被黑

你点的每个“在看”,我都认真当成了AI

http://lihuaxi.xjx100.cn/news/268954.html

相关文章

tar自动打包指定文件夹中的文件到指定目录

这是我离开上一家公司&#xff0c;到XX人寿保险公司的第一个工作内容&#xff0c;很简单&#xff0c;可以减少每天重复的工作量。写一个脚本&#xff0c;将指定文件夹下的所有文件打包成以日期命名的格式并存放到其父目录中&#xff0c;自动检测该压缩包&#xff0c;保留时间为…

mysql不能改路径到d盘_Windows Server 2008 R2修改MySQL 5.5数据库目录为D盘示例

感兴趣的小伙伴&#xff0c;下面一起跟随编程之家 jb51.cc的小编两巴掌来看看吧&#xff01;说明&#xff1a;操作系统&#xff1a;Windows Server 2008 R2MysqL版本&#xff1a;5.5MysqL程序安装目录&#xff1a;D:\MysqL\MysqL Server 5.5MysqL数据库默认目录&#xff1a;C:\…

python公共操作(运算符(+、*、in、not in)、公共方法(len()、del、max()、min()、range()、enumerate())、类型转换(tuple、list、set))

1. 运算符 1.1 # 1. 字符串 str1 aa str2 bb str3 str1 str2 print(str3) # aabb # 2. 列表 list1 [1, 2] list2 [10, 20] list3 list1 list2 print(list3) # [1, 2, 10, 20] # 3. 元组 t1 (1, 2) t2 (10, 20) t3 t1 t2 print(t3) # (10, 20, 100, 200) 1.2 * …

CCD工业相机、镜头倍率及相关参数计算方法

点击上方“小白学视觉”&#xff0c;选择加"星标"或“置顶”重磅干货&#xff0c;第一时间送达随着自动化的日益剧增&#xff0c;CCD相机、镜头倍率被提上日程&#xff0c;许多小伙伴们开始被客户问到这个问题&#xff0c;大部分无法很好的回答客户的问题&#xff0c…

最喜欢随机森林?周志华团队 DF21 后,TensorFlow 开源决策森林库 TF-DF

点击上方“视学算法”&#xff0c;选择加"星标"或“置顶”重磅干货&#xff0c;第一时间送达转自 | 机器之心TensorFlow 决策森林 (TF-DF) 现已开源&#xff0c;该库集成了众多 SOTA 算法&#xff0c;不需要输入特征&#xff0c;可以处理数值和分类特征&#xff0c;为…

使用PowerShell登陆多台Windows,测试DCAgent方法

目标&#xff1a; 需要1台PC用域账户远程登陆10台PC&#xff0c;每台登陆后的PC执行发送敏感数据的操作后&#xff0c;再logoff。 在DCAgent服务器上&#xff0c;查看这10个用户每次登陆时&#xff0c;DCAgent是否能获取到登陆信息&#xff08;IP&#xff1a;User&#xff09; …

rabbitmq利用死信队列+TTL 实现延迟队列

2019独角兽企业重金招聘Python工程师标准>>> 适用场景&#xff1a;订单超时未支付&#xff0c;倘若适用定时器的话&#xff0c;那么数据量大的话&#xff0c;轮询查询数据&#xff0c;首先IO开销大&#xff0c;其次任务时间要求高&#xff0c;扫描越频繁性能可能就越…

python中列表、字典和集合推导式

1. 列表推导式 ⽤⼀个表达式创建⼀个有规律的列表或控制⼀个有规律列表&#xff0c;又叫列表生成式。1.1 简单的列表推导式 需求&#xff1a;创建⼀个0-10的列表。 示例代码&#xff1a;【while循环实现】# 1. 准备⼀个空列表 list1 [] # 2. 书写循环&#xff0c;依次追加数字…