搜索引擎通过站长们提供资源,来满足用户的搜索需求,而站长通过搜索引擎将网站的内容传播出去,获得有效的流量和用户。
蜘蛛在抓取过程中双方都要遵守一定的规范,便于搜索引擎抓取,不要使用过多对搜索引擎不友好的元素。
蜘蛛抓取过程中涉及的网络协议有以下四种:
1、HTTP协议
HTTP是超文本传输协议,在互联网上被广泛应用的一种网络协议,客户端和服务器端请求和应答的标准。
用户通过浏览器或蜘蛛等对指定端口发起一个请求,HTTP的请求会返回对应的httpheader信息,可以直接查看到是否成功、服务 器类型、网页最近更新时间等内容。
2、HTTPS协议
HTTPS的安全基础是SSL,因此加密的详细内容就需要SSL。
部署HTTPS是需要购买SSL证书上传到服务器,网站开启HTTPS:第一可以确保数据在传输过程中的安全性,第二用户可以确认网站的真实性。
3、UA属性
UA是HTTP协议中的一个属性。通过UA让服务器可以识别出用户使用的操作系统、浏览器等等,根据相应的格式进行页面的调整,为用户提供更好的浏览体验。
4、Robots协议
搜索引擎在访问一个网站时,首先会查看网站的根目录下的robots.txt文件,如果网站上不想被搜索引擎抓取的页面,可以通过设置robots.txt文件告知搜索引擎。
注意: robots.txt必须放在网站根目录下,且文件名要小写。
有关robots.txt文件的创建可以参考【robots.txt】
阅读本文的人还可以阅读:
网站使用HTTPS有什么优势?HTTPS的缺点
什么是RPC协议?RPC协议与HTTP协议的区别