首页IT科技python爬虫例(Python爬虫实战,requests+xlwt模块,爬取螺蛳粉商品数据(附源码))

python爬虫例(Python爬虫实战,requests+xlwt模块,爬取螺蛳粉商品数据(附源码))

时间2025-05-06 06:20:42分类IT科技浏览3245
导读:前言 今天给大家介绍的是Python爬取螺蛳粉商品数据,在这里给需要的小伙伴们代码,并且给出一点小心得。...

前言

今天给大家介绍的是Python爬取螺蛳粉商品数据           ,在这里给需要的小伙伴们代码               ,并且给出一点小心得         。

首先是爬取之前应该尽可能伪装成浏览器而不被识别出来是爬虫    ,基本的是加请求头        ,但是这样的纯文本数据爬取的人会很多                ,所以我们需要考虑更换代理IP和随机更换请求头的方式来对螺蛳粉数据进行爬取               。

在每次进行爬虫代码的编写之前      ,我们的第一步也是最重要的一步就是分析我们的网页      。

通过分析我们发现在爬取过程中速度比较慢     ,所以我们还可以通过禁用谷歌浏览器图片         、JavaScript等方式提升爬虫爬取速度       。

开发工具

Python版本: 3.6

相关模块:

requests模块

json模块

re模块

time模块

xlwt模块

xlrd模块

环境搭建

安装Python并添加到环境变量                 ,pip安装需要的相关模块即可              。

思路分析

浏览器中打开我们要爬取的页面

按F12进入开发者工具        ,查看我们想要的螺蛳粉商品数据在哪里

这里我们需要页面数据就可以了

代码实现

headers = { #Host:s.taobao.com, User-Agent:Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/108.0.0.0 Safari/537.36, cookie:你的Cookie, accept: text/html,application/xhtml+xml,application/xml;q=0.9,image/avif,image/webp,image/apng,*/*;q=0.8,application/signed-exchange;v=b3;q=0.9, accept-encoding: gzip, deflate, br, accept-language: zh-CN,zh;q=0.9, upgrade-insecure-requests: 1, referer:https://www.taobao.com/, } #请求网页内容 url="https://s.taobao.com/search?q=螺蛳粉&ie=utf8&bcoffset=0&ntoffset=0&s=0" #requests+请求头headers r = requests.get(url, headers=headers) r.encoding = utf8 s = (r.content) #乱码问题 html = s.decode(utf8) # 初始化execl表 def initexcel(): # 创建一个workbook 设置编码 workbook = xlwt.Workbook(encoding=utf-8) # 创建一个worksheet worksheet = workbook.add_sheet(sheet1) workbook.save(螺蛳粉.xls) ##写入表头 value1 = [["标题", "销售地", "销售量", "评论数", "销售价格", 商品惟一ID, 图片URL]] book_name_xls = 螺蛳粉.xls write_excel_xls_append(book_name_xls, value1) # 正则模式 p_title = "raw_title":"(.*?)" #标题 p_location = "item_loc":"(.*?)" #销售地 p_sale = "view_sales":"(.*?)人付款" #销售量 p_comment = "comment_count":"(.*?)"#评论数 p_price = "view_price":"(.*?)" #销售价格 p_nid = "nid":"(.*?)" #商品惟一ID p_img = "pic_url":"(.*?)" #图片URL # 数据集合 data = [] # 正则解析 title = re.findall(p_title,html) location = re.findall(p_location,html) sale = re.findall(p_sale,html) comment = re.findall(p_comment,html) price = re.findall(p_price,html) nid = re.findall(p_nid,html) img = re.findall(p_img,html) for j in range(len(title)): data.append([title[j],location[j],sale[j],comment[j],price[j],nid[j],img[j]]) # 写入execl def write_excel_xls_append(path, value): index = len(value) # 获取需要写入数据的行数 workbook = xlrd.open_workbook(path) # 打开工作簿 sheets = workbook.sheet_names() # 获取工作簿中的所有表格 worksheet = workbook.sheet_by_name(sheets[0]) # 获取工作簿中所有表格中的的第一个表格 rows_old = worksheet.nrows # 获取表格中已存在的数据的行数 new_workbook = copy(workbook) # 将xlrd对象拷贝转化为xlwt对象 new_worksheet = new_workbook.get_sheet(0) # 获取转化后工作簿中的第一个表格 for i in range(0, index): for j in range(0, len(value[i])): new_worksheet.write(i+rows_old, j, value[i][j]) # 追加写入数据  ,注意是从i+rows_old行开始写入 new_workbook.save(path) # 保存工作簿 #保存数据 book_name_xls = 螺蛳粉.xls write_excel_xls_append(book_name_xls, data) time.sleep(6)

如何获取Cookie

结果展示

最后

今天的分享到这里就结束了                  ,感兴趣的朋友也可以去试试哈

对文章有问题的           ,或者有其他关于python的问题,可以在评论区留言或者私信我哦

觉得我分享的文章不错的话              ,可以关注一下我              ,或者给文章点赞(/≧▽≦)/

创心域SEO版权声明:以上内容作者已申请原创保护,未经允许不得转载,侵权必究!授权事宜、对本内容有异议或投诉,敬请联系网站管理员,我们将尽快回复您,谢谢合作!

展开全文READ MORE
帝国cms移动端设置教程(帝国cms怎么设置搜索功能)