系统城装机大师 - 固镇县祥瑞电脑科技销售部宣传站!

当前位置:首页 > 网络编程 > 正则表达式 > 详细页面

python爬虫 正则表达式解析

时间:2020-02-04来源:系统城作者:电脑系统城

这篇文章主要介绍了python爬虫 正则表达式解析,文中通过示例代码介绍的非常详细,对大家的学习或者工作具有一定的参考学习价值,需要的朋友可以参考下

- re.I # 忽略大小写
- re.M # 多行匹配,将正则作用到源数据的每一行
- re.S # 单行匹配,将正则作用到整个源数据,输出一个整体字符串(包括换行符也打印)


 
  1. string = '''fall in love with you
  2. i love you very much
  3. i love she
  4. i love her'''
  5. # 去除以i开头的每一行数据
  6. re.findall('^i.*',string,re.M)

['i love you very much', 'i love she', 'i love her']


 
  1. #匹配全部行
  2. string1 = """细思极恐
  3. 你的队友在看书
  4. 你的敌人在磨刀
  5. 你的闺蜜在减肥
  6. 隔壁老王在练腰
  7. """
  8. re.findall('.*',string1,re.S)

['细思极恐\n你的队友在看书\n你的敌人在磨刀\n你的闺蜜在减肥\n隔壁老王在练腰\n', '']

爬取糗事百科中所有的图片进行保存


 
  1. import requests
  2. import re
  3. import urllib
  4. import os
  5.  
  6. url = 'https://www.qiushibaike.com/pic/page/%d/?s=5170552'
  7. # 自定义请求头信息
  8. headers = {
  9. 'User-Agent':'Mozilla/5.0 (Windows NT 6.1; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/72.0.3626.119 Safari/537.36'
  10. }
  11. # 判断是否存在名为qiutu的文件夹,如果不存在则创建文件夹
  12. if not os.path.exists('./qiutu'):
  13. os.mkdir('./qiutu')
  14. # 手动输入开始页,结束页
  15. start_page = int(input('start>>>'))
  16. end_page = int(input('end>>>'))
  17.  
  18. for page in range(start_page,end_page+1):
  19.   # 按照每页url形式拼接指定url
  20. new_url = format(url%page)
  21.   # 发起请求
  22. page_text = requests.get(url=new_url,headers=headers).text
  23.   # 使用正则找出page_text页面中所有图片url
  24. img_url_list = re.findall('<div class="thumb">.*?<img src="(.*?)" alt=.*?</div>',page_text,re.S)
  25.   # 给每一个图片url添加https协议头
  26. for img_url in img_url_list:
  27. img_url = 'https:' + img_url
  28.      # 将图片url切割去除图片名称,作为存储时图片的名称
  29. img_name = img_url.split('/')[-1]
  30. img_path = 'qiutu/' + img_name、
  31.      # 对图片做持久化存储
  32. urllib.request.urlretrieve(url=img_url,filename=img_path)
  33. print(img_path,'下载成功')
  34. print('over')

以上就是本文的全部内容,希望对大家的学习有所帮助,也希望大家多多支持我们。

分享到:

相关信息

系统教程栏目

栏目热门教程

人气教程排行

站长推荐

热门系统下载