python商业爬虫_商业爬虫学习笔记day1

news/2024/7/8 6:51:05

day1

一. HTTP

1.介绍:

https://www.cnblogs.com/vamei/archive/2013/05/11/3069788.html

http://blog.csdn.net/guyuealian/article/details/52535294

2.当用户输入网址(如www.baidu.com),发送网络请求的过程是什么?

1640863-20190717215253149-1668968874.png

上图应该还有往回的箭头(即服务器从数据库获取得到指定的请求资源,返回给客户端)

a. 通过域名服务器解析出www.baidu.com对应的ip地址

(1)先要知道默认网关的mac地址(通过arp协议获取默认网关的mac地址)

(2)组织数据,发送给默认网关(ip还是dns服务器的ip,但是mac地址是默认网关的mac地址)

(3)默认网关拥有转发数据的能力,把数据转发给路由器

(4)路由器根据自己的路由协议,来选择一个合适的较快的路径,转发数据给目的网关

(5)目的网关(dns服务器所在的网关)把数据转发给dns服务器

(6)dns服务器查询解析出www.baidu.com对应的ip地址,并把它原路返回给请求这个域名的client

b. 得到了baidu.com的ip地址后,进行tcp的3次握手,从而达到client与server的连接

c.通过http协议发送请求数据给对应的web服务器

d.web服务器收到数据请求之后,通过查询自己的服务器从而得到client请求的资源,原路返回给请求者(浏览器)

d.浏览器收到数据后,通过浏览器自己的渲染功能来显示这个网页

e.浏览器关闭tcp连接,即4次挥手

2.http的请求方式

(1)get请求

向特定的资源发出请求,其参数直接出现在url中,不安全,此外请求有长度限制,获取的数据只能是ASCII码类型数据

(2)post请求

向指定资源提交数据进行处理请求(例如提交表单或者上传文件),数据(允许二进制数据)被包含在请求体中。请求方式安全,请求没有长度限制。POST请求可能会导致新的资源的创建或已有资源的修改

(3)PUT

向指定资源位置上传其最新内容

(4)delete

请求服务器删除Request-URI所标识的资源

(5)trace

客户端可以对请求消息的传输路径进行追踪,其是让web服务器端将之前的请求通信还给客户端的方法,主要用于测试和诊断

(6)head

类似get请求,其返回的响应中没有具体的内容(即不返回报文的主体部分)

(7)options

返回服务器针对特定资源所支持的HTTP请求方法(即客户端询问服务器可以提交哪些请求方法)

(8)connect

HTTP/1.1协议中预留给能够将连接改为管道方式的代理服务器

connect方法要求在与代理服务器通信时简历隧道,实现用隧道协议进行TCP通信。主要使用SSL(安全套接层)和TLS(传输层安全)协议把通信内容加密后经网络隧道传输

虽然HTTP的请求方式有8种,但是我们再实际应用中常用的也就是get和post,其他请求方式也都可以通过这两种方式间接来实现

3.http和https的区别

(1)https协议要CA(Certificate Authority, 证书授权中心)证书,需要一定的经济成本

(2)http是明文传输,https是加密的安全传输,所以https相对于http传输比较安全

(3)连接端口不一样,http是80,https是443

4.请求头(request header)内容

1640863-20190717215637193-1295949675.png

(1)Accept:⽂文本的格式

(2)Accept-Encoding:编码格式

(3)Connection:长链接 短链接

(4)Cookie:验证⽤的

(5)Host:域名

(6)Referer:标志从哪个页面跳转过来的

(7)User-Agent:浏览器和⽤户的信息

二. 爬虫入门

(1)爬虫的价值:

1.买卖数据(⾼高端的领域价格特别贵)

2.数据分析:出分析报告

3.流量量

4.指数阿里指数,百度指数

(2)合法性:灰⾊色产业

政府没有法律律规定爬⾍虫是违法的,也没有法律律规定爬⾍虫是合法的

公司概念:公司让你爬数据库(窃取商业机密)责任在公司

(3)爬⾍虫可以爬取所有东⻄西?(不是)爬⾍只能爬取⽤用户能访问到的数据

爱奇艺的视频(vip,非vip)

1.普通⽤用户 只能看非vip 爬取非vip的的视频

2.vip 爬取vip的视频

3.普通用户想要爬取vip视频(⿊黑客)

三. 爬虫的分类

(1)通⽤用爬⾍虫

1.使⽤用搜索引擎:百度 谷歌 360 雅虎 搜狗

优势:开放性 速度快

劣势:⽬标不明确

返回内容:基本上%90是⽤户不需要的

不清楚用户的需求在哪里

(2)聚焦爬⾍虫(学习)

1.⽬标明确

2.对⽤户的需求非常精准

3.返回的内容很固定

增量式:翻⻚:从第⼀⻚请求到最后⼀页

Deep 深度爬⾍虫:

静态数据:html css

动态数据:js代码,加密的js

(3)robots

Robots协议(也称为爬虫协议、机器人协议等)的全称是“网络爬虫排除标准”(Robots Exclusion Protocol),网站通过Robots协议告诉搜索引擎哪些页面可以抓取,哪些页面不能抓取。您可以在您的网站中创建一个纯文本文件robots.txt,在这个文件中声明该网站中不想被robot访问的部分,这样,该网站的部分或全部内容就可以不被搜索引擎收录了,或者指定搜索引擎只收录指定的内容。

聚焦爬虫不遵守robots

四. 爬虫的工作原理

确定抓取目标的url是哪一个--->使用代码发送请求获取数据--->解析获取到的数据--->若有新的目标(url),回到第一步--->数据持久化(如,将数据写入文件中)

1. python3(原生提供的模块):urlib.request

(1) urlopen:

a.返回response对象

b. response.read()

c. bytes.decode("utf-8")

(2) get:传参 (没传data就默认使用get请求,传了data就post请求)

1.汉字报错 :解释器ascii没有汉字,url汉字转码

(3)post

(4)handle处理器的⾃定义

(5)urlError

五.代码

发送请求

import urllib.request

def load_data():

url= "http://www.baidu.com/"response=urllib.request.urlopen(url) # 发送请求

print(response)

data=response.read() # 读取到的内容为bytes

print(data)

# 将文件获取的内容转换成字符串

str_data= data.decode("utf-8")

print(str_data)

# 将数据写入文件

with open("baidu.html", "w",encoding="utf-8") asf: # 此处encoding="utf-8"一定要写,否则报错

f.write(str_data)load_data()

#python爬取的类型:str bytes

#如果爬取回来的是bytes类型:但是你写入的时候需要字符串 decode("utf-8")

#如果爬取过来的是str类型:但你要写入的是bytes类型 encode(""utf-8")

发送带参数的请求

import urllib.request

def get_method_params():

url= "http://www.baidu.com/s?wd="name= "美女"final_url= url +name

print(final_url)

# 使用代码发送网络请求

response=urllib.request.urlopen(final_url)

print(response)

get_method_params()

这样运行会报错UnicodeEncodeError: 'ascii' codec can't encode characters in position 10-11: ordinal not in range(128)

原因:python:是解释性语言;解析器只支持 ascii 码,不支持中文,此处的final_url包含了中文,所以就要进行url的转译,如将url(https://www.baidu.com/s?wd=美女)复制到pycharm中会直接转译,如下:

1640863-20190717233243294-1920223071.png

但我复制到自己的pycharm不会产生转译(怀疑视频老师讲错了)

自己查到的原因(不知道是否正确):Url的编码格式采用的是ASCII,而不是Unicode,这也就是说你不能在Url中包含任何非ASCII字符,例如中文。否则如果客户端浏览器和服务端浏览器支持的字符集不同的情况下,中文可能会赵成问题

转译要用到parse,string模块,如下

import urllib.request

import urllib.parse

import string

defget_method_params():

url= "http://www.baidu.com/s?wd="name= "美女"final_url= url+nameprint(final_url)

#将包含汉字的网址进行转译

encode_new_url = urllib.parse.quote(final_url,safe=string.printable)print(encode_new_url)#使用代码发送网络请求

response =urllib.request.urlopen(encode_new_url)print(response)# 返回的是http对象,如

#读取内容

data =response.read().decode()print(data)#保存到本地

with open("02-encode.html","w",encoding="utf-8")as f:

f.write(data) get_method_params()


http://lihuaxi.xjx100.cn/news/277917.html

相关文章

Unix操作系统中UUCP知识详细讲解

Unix操作系统有很多值得学习的地方,这里我们主要介绍Unix操作系统中的uucp,大家一起来学习下吧!UUCP系统是一组程序,完成文件传输,执行系统之间的命令,维护系统使用情况的统计,保护安全.UUCP是系统最广泛使用的网络实用系统,这其中在两个原因: * 第一,U…

设计模式解析(五)——几种设计模式之Facade和Adapter

由于个人时间原因,无法详细描述这些模式,暂且记录下来以后慢慢补充详细。 Facade模式 Facade模式:关键特征 意图希望简化原有系统的使用方式。需要定义自己的接口。问题只需使用某个复杂系统的子集,或者,需要以一种特殊…

RESTful 架构基础

点击上方“方志朋”,选择“设为星标”回复”666“获取新整理的面试资料来自:唐尤华译自:https://dzone.com/refcardz/rest-foundations-restfulREST(Representational State Transfer)架构风格是一种世界观&#xff0c…

应用随机过程张波商豪_Markov链的应用一:MCMC算法

本文是张迪同学对马尔链的应用的介绍应用一:Markov链在MCMC算法中的应用1. MCMC概念MCMC即马尔科夫链蒙特卡洛方法(Markov Chain Monte Carlo)。该方法将Markov过程引入到Monte Carlo模拟中,实现抽样分布随模拟的进行而改变的动态模拟,弥补了…

实战:基于tensorflow 的中文语音识别模型 | CSDN博文精选

作者 | Pelhans来源 | CSDN博客目前网上关于tensorflow 的中文语音识别实现较少,而且结构功能较为简单。而百度在PaddlePaddle上的 Deepspeech2 实现功能却很强大,因此就做了一次大自然的搬运工把框架转为tensorflow….简介百度开源的基于PaddlePaddle的…

让你的Python代码更干净只需简单一步

你可以将这两个文件拷贝到自己的项目根目录中,然后执行一次 pre-commit install,这样每次提交代码的时候,都是干净的代码,是不是很方便? 说起来容易做起来难,我们都知道代码可读性非常重要,但是…

计算机视觉不可能凉!

说到“深度学习”,它的最明显的特色就是“深”,并且通过很深层次的网络,来实现准确率非常高的图像识别、语音识别等能力。因此,我们就会觉得深的网络比浅的网络好,从而网络被设计的越来越深。但是,随着网络…

经历过这三个NLP项目的洗礼,成功拿下NLP算法Offer!

NLP (自然语言处理),利用计算机对人类的语言文字进行处理。由于语言文字是人类交流沟通的最基本方式,因此 NLP 也是最典型的 AI 领域之一。如果你也想搭上 NLP 这趟快速发展前景广阔的列车,推荐你参与《京东 NLP 企业项目实战训练营》&#x…