互联网企业裁员潮背后的就业危机与机遇-采集招聘信息

近年来,随着经济增速放缓、互联网流量见顶、资本寒冬等因素的影响,许多知名的互联网公司都进行了组织结构调整和人员优化,以降低成本和提高效率。据智联招聘统计,有43.4%的被裁员者表示原因是“企业生产经营状况发生困难”,有37%的被裁员者表示原因是“企业进行组织结构调整”。受到裁员影响最大的岗位是前端开发、软件测试和UI设计等职能较为单一且容易被替代的岗位。其他受到疫情影响较大的领域包括旅游、餐饮、零售、媒体等。 全球范围内,IT行业都面临着就业形势严峻和竞争激烈的局面。一方面,由于市场需求下降和技术变革加速,导致了部分岗位被淘汰或缩减;另一方面,由于IT行业门槛相对较低和薪资水平相对较高,吸引了大量的求职者涌入或转行进入该行业。这就造成了供需失衡和人才结构失衡的问题。 对于求职者来说,在这样一个充满挑战和机遇的时代里,如何提升自己的核心竞争力和适应能力成为了关键。在当今的互联网时代,找工作不再局限于传统的招聘网站或者人才市场,而是有了更多的选择和渠道。其中,领英、boss直聘和猎聘网是三个比较受欢迎且有效果的招聘平台 。 那么如何快速通过这三个平台找到适合自己并符合市场需求的工作岗位呢:

  • 首先,你需要完善在这三个平台上的个人简历和资料。这是展示自己的第一印象,也是吸引招聘方或者猎头关注你的关键。你需要突出你的专业技能、工作经验、教育背景等核心信息,并且保持更新和真实性。同时,你也可以根据不同平台的特点进行优化和调整。比如,在领英上,你可以写一个有个性和亮点的个人简介;在boss直聘上,你可以上传一段自我介绍视频;在猎聘网上,你可以设置一个合理和灵活的期望薪资。
  • 其次,你需要积极主动地搜索和申请你感兴趣的岗位。这三个平台都提供了丰富和精准的搜索功能,让你可以根据行业、地区、薪资、经验等条件筛选出符合你要求的岗位,并且及时查看最新发布或更新的信息。同时,这三个平台都支持在线沟通和面试功能,让你可以直接与招聘方或者猎头取得联系,并且及时了解进展情况。

下面提供一段爬虫程序示例,可以快速采集linkedin上的招聘信息

代码语言:python
代码运行次数:0
复制
Cloud Studio 代码运行
# 导入模块
import csv
import requests
from bs4 import BeautifulSoup
from selenium import webdriver
from selenium.webdriver.common.proxy import Proxy, ProxyType

设置爬虫代理标准版的代理IP和端口,以及用户名和密码

proxy_ip = "www.16yun.cn"
proxy_user = "16YUN"
proxy_pwd = "16IP"

创建一个Proxy对象,并设置其属性

prox = Proxy()
prox.proxy_type = ProxyType.MANUAL
prox.http_proxy = f"http://{proxy_user}:{proxy_pwd}@{proxy_ip}"
prox.https_proxy = f"https://{proxy_user}:{proxy_pwd}@{proxy_ip}"
prox.ftp_proxy = f"ftp://{proxy_user}:{proxy_pwd}@{proxy_ip}"
prox.ssl_proxy = f"https://{proxy_user}:{proxy_pwd}@{proxy_ip}"

创建一个webdriver.DesiredCapabilities.CHROME字典,并将Proxy对象添加到其capabilities属性中

capabilities = webdriver.DesiredCapabilities.CHROME
prox.add_to_capabilities(capabilities)

设置chromedriver路径,并传入capabilities字典作为desired_capabilities参数

driver = webdriver.Chrome(executable_path='./chromedriver.exe', desired_capabilities=capabilities)

打开linkedin招聘页面

url = 'https://www.linkedin.com/jobs/search?keywords=Data%20Scientist&location=Toronto%2C%20Ontario%2C%20Canada&geoId=100025096&trk=public_jobs_jobs-search-bar_search-submit&redirect=false&position=1&pageNum=0'
driver.get(url)

获取网页源代码

job_src = driver.page_source

创建beautifulsoup对象

soup = BeautifulSoup(job_src, 'lxml')

提取所有职位信息的标签

jobs = soup.find_all('li', class_='result-card job-result-card result-card--with-hover-state')

创建空列表存储数据

job_id = []
job_title = []
company_name = []
location = []
date = []
job_link = []

遍历每个职位标签,提取数据并添加到列表中

for job in jobs:
# 提取职位id
job_id.append(job['data-id'])
# 提取职位标题
job_title.append(job.find('h3', class_='result-card__title job-result-card__title').text)
# 提取公司名称
company_name.append(job.find('h4', class_='result-card__subtitle job-result-card__subtitle').text)
# 提取地点
location.append(job.find('span', class_='job-result-card__location').text)
# 提取日期
date.append(job.find('time', class_='job-result-card__listdate')['datetime'])
# 提取链接
job_link.append(job.find('a', class_='result-card__full-card-link')['href'])

创建csv文件并写入数据

with open('linkedin_jobs.csv', 'w', newline='', encoding='utf-8') as f:
writer = csv.writer(f)
writer.writerow(['Job ID', 'Job Title', 'Company Name', 'Location', 'Date', 'Job Link'])
for i in range(len(job_id)):
writer.writerow([job_id[i], job_title[i], company_name[i], location[i], date[i], job_link[i]])

关闭浏览器

driver.close()

上面代码主要按照如下步骤实现:

  1. 安装requests, beautifulsoup4和csv模块。
  2. 使用selenium库和chromedriver来模拟浏览器操作,通过爬虫代理IP提高采集效率,打开linkedin的招聘页面。
  3. 使用beautifulsoup库来解析网页源代码,并提取您感兴趣的数据,如职位名称,公司名称,地点,日期和链接。
  4. 将提取的数据保存到csv文件中进行处理

通过运行以上程序,能够定期采集Linkedin的相关招聘信息进行统计筛选,如果要采集其他招聘网站,根据需要进行修改即可,可以极大的提高找工作的效率哦。