news 2026/1/14 14:33:51

详情页的爬取(正则)

作者头像

张小明

前端开发工程师

1.2k 24
文章封面图
详情页的爬取(正则)

先看代码,代码大部分都是定义函数

代码就是这样,全是用定义函数,这样出现问题维护和在其他地方调用都比较方便

另外,简单爬虫基本都要遵守:发送请求,获得响应,得到网页文本,定位目标位置(本文用正则表达式),获取信息,打印信息

爬取网址:https://books.toscrape.com/catalogue/page-1.html

一、获取HTML文本

首先定义了一个toscrape_api(url)函数,并传入了一个参数url,这个定义函数用于获得传入参数url的HTML文本,我说白了,我白说了这其实是一个通用函数,只要传入url参数(网址),就获得该参数的HTML。

其中内容还是,发送请求response =requests.get(url,headers =headers),获得响应response,在这其中还做了个简单的反爬headers,至于到底有没有的得到响应,就if语句判断一下

ifresponse.status_code == 200:returnresponse.textelse: print("请求未成功") return 0

如果状态码是200,说明就请求成功了,函数就返回response.text,这就是HTML,不然就输出"请求未成功",并返回0,也好让我们知道请求未成功

二、列表页网址获取

我们想要进去每一个书籍的详情页就需要获得每一个详情页的网址url,通过观察发现(有的人说怎么观察,多点开几个书籍的详情页,观察他们的网址变化),每一个书籍的详情页都是网址(https://books.toscrape.com/catalogue/)+列表页中每一本书的属性为href的值,这就需要我们先爬取列表页中每一本书属性为href的值,在与这个网址(https://books.toscrape.com/catalogue/)结合,就形成了详情页的网页,在进行爬取就行了

但在爬取列表页中href的值之前,我们还需要构造列表页的网址,毕竟列表页有10页,通过观察(还是多点几个列表页,看看网址),很容易发现,网址中就只有其中的数字在发生变化,1—10,刚好就是10页的详情页,用一个for循环就能轻易搞定,就是下面代码:

deftoscrape_index(page): url = f'https://books.toscrape.com/catalogue/page-{page}.html' returntoscrape_api(url)

上面代码中并没有for循环,因为for循环在主程序(定义函数main)中,上面只是构建了列表页网址,其中返回值是定义函数toscrape_api(url),假设传入的参数page为1,那就获得了列表第一页的网址url,然后将该url传入toscrape_api(url)函数中,就获得列表页第一页的HTML

三、获取详情页网址后缀

现在来定义一个方法,用来获得列表页中属性为href的值,也就是详情页的网址的后缀,用正则来匹配

deftoscrape_index_href(html): index_pattern = re.compile('<ahref="(.*?)" title=".*?"')detail= re.findall(index_pattern,html) foritemindetail: index_href = f'https://books.toscrape.com/catalogue/{item}' yieldindex_href

用compile方法构造正则表达式,然后findall方法查找该列表页的HTML,就能找到匹配该列表页所有的href的值,并以列表的形式存储在detail中,其中每一个href的值都是以元组的形式存在,接着用for循环遍历这个列表,把详情页后缀https://books.toscrape.com/catalogue拼配就形成了详情页,但是遍历后并没有把他全部存储,而是用yield方法生成了一个生成器index_href,简单来说,就是,遇到yieldindex_href就先订到这里,再次下面代码出现index_href才进行下一次的循环,直到再次遇到yieldindex_href又定到这里,或者直接理解成列表也可以遍历,虽然错误,但好理解

四、获取详情页的HTML

既然详情页的网址已经有了,就按照重复性步骤,接着还是发送请求就是下面代码

deftoscrape_detail(href):returntoscrape_api(href)

至于为什么不在上一个定义函数的结尾直接返回toscrape_api(href),而是多此一举的又定义一个函数,因为有条理,而且出现错误也比较好找,OK,通过这个定义函数,我们就获得了详情页的HTML,接着还是像上面某一步一样,用正则匹配详情页中需要的内容

五、构造匹配详情页书名、价格、库存、评级、产品描述的正则

接下来的定义函数稍微有点长,简单分成两部分

1.正则匹配

其实就是构建正则匹配对象,也挺简单,实在不行就单独创建一个.py文件,多尝试几次,代码就是下面

detail_pattern = re.compile(r'<h1>(.*?)</h1>\s+'# 书名'<p class="price_color">(.*?)</p>.*?'# 价格'<p class="star-rating (.*?)">.*?'# 评级'<p>(.*?)</p>.*?'# 产品描述'<td>In stock \(\s*(\d+)\s*available\)</td>'# 库存 ,re.S) detail_results = re.findall(detail_pattern,html)

当然也可以创建5个complie方法,用search()方法进行查找,用group()方法获取内容,也很简单,OK还是说说这个,构建了一个整体的正则匹配,如果第一个匹配不到,后面几个也匹配不到,还是建议用(5个complie方法),构建完就进行查找,用的是findall方法,查找结果是列表,列表中的元素是以元组的形式存在

2.获取内容

既然需要的内容是以列表的形式存在,直接遍历就行了

forresultindetail_results: name = result[0] if result[0] else None preice = result[1] if result[0] else None stock = result[4] if result[0] else None evaluate = result[2] if result[0] else None describe = result[3] if result[0] else None detail_result = { '书名':name, '价格':preice, '库存':stock, '评级':evaluate, '产品描述':describe } results.append(detail_result) return results

通过遍历就拿到列表中的每一个元素,而这些元素又是元组,所以可以根据索引获得值,方才说,如果第一个匹配错误,后面都匹配不了,直接返回[ ],所以这里的if result[0] else None没啥用,可以删了,然后创建字典,把内容以字典形式存储,然后把字典加入到全局变量列表results,那后面的return results也没啥用可以删了,或者写成return 0都行

这样每使用一次定义函数toscrape_compile(),就在全局变量列表results中加入一次字典(就是一本书籍的信息),直到全部加入

六、保存为csv文件

这是固定用法,这个用法只用传入两个参数,文件名称列表,这里直接命名为toscrape详情页内容.csv,就只用传入一个参数了

defsave_to_csv(results): df = pd.DataFrame(results) df.to_csv('toscrape详情页内容.csv',index=False,encoding='utf-8-sig')

将刚才的全局变量results传入就行了

七、主程序

用以调用各个定义函数,将定义函数联系起来

defmain():forpageinrange(1,3):html= toscrape_index(page)index_href= toscrape_index_href(html)forhrefinindex_href: print(href)html= toscrape_detail(href) toscrape_compile(html) print(results) save_to_csv(results)

这里详细说下整篇思路:先用forpageinrange(1,3)(由于内容有点多,我就爬了前两页的)把值赋给toscrape_index(page)函数,就获得了列表页的html,把列表页的html传入toscrape_index_href(html)函数,就获得了详情页的网址url(index_href),这里就遍历了生成器(index_href),把网址index_href传入toscrape_detail(href)函数,就获得详情页的html,将详情页的html传入toscrape_compile(html)这样就会获得书籍的详细内容,通过for循环,不断网全局变量中加入每一本书籍的内容,最后调用save_to_csv(results)函数,把数据存放在CSV文件中,整体过程就是这样

最后还有个启动程序

if__name__ =='__main__': main()y 运行结果
版权声明: 本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若内容造成侵权/违法违规/事实不符,请联系邮箱:809451989@qq.com进行投诉反馈,一经查实,立即删除!
网站建设 2026/1/9 22:14:09

零成本自制NAND闪存编程器:STM32开源硬件工具完全指南

零成本自制NAND闪存编程器&#xff1a;STM32开源硬件工具完全指南 【免费下载链接】nand_programmer NANDO - NAND Open programmer 项目地址: https://gitcode.com/gh_mirrors/na/nand_programmer 你是否曾经遇到过需要读取NAND闪存芯片却苦于没有专业编程工具的困境&a…

作者头像 李华
网站建设 2026/1/9 22:14:07

5大核心方法深度解析:YOLO系列模型标注格式转换完全指南

5大核心方法深度解析&#xff1a;YOLO系列模型标注格式转换完全指南 【免费下载链接】ultralytics ultralytics - 提供 YOLOv8 模型&#xff0c;用于目标检测、图像分割、姿态估计和图像分类&#xff0c;适合机器学习和计算机视觉领域的开发者。 项目地址: https://gitcode.c…

作者头像 李华
网站建设 2026/1/9 22:14:05

3分钟搞定Steam成就管理:让你的游戏之旅不留遗憾!

3分钟搞定Steam成就管理&#xff1a;让你的游戏之旅不留遗憾&#xff01; 【免费下载链接】SteamAchievementManager A manager for game achievements in Steam. 项目地址: https://gitcode.com/gh_mirrors/st/SteamAchievementManager 还在为那些永远无法解锁的Steam成…

作者头像 李华
网站建设 2025/12/22 14:48:51

如何用开源神器实现跨设备无缝操控?

如何用开源神器实现跨设备无缝操控&#xff1f; 【免费下载链接】lan-mouse mouse & keyboard sharing via LAN 项目地址: https://gitcode.com/gh_mirrors/la/lan-mouse 在数字化办公时代&#xff0c;多设备协同已成为技术爱好者和跨平台用户的刚需。Lan Mouse作为…

作者头像 李华
网站建设 2026/1/10 21:48:56

Luckysheet大数据处理性能调优全攻略:让百万行数据流畅运行

Luckysheet大数据处理性能调优全攻略&#xff1a;让百万行数据流畅运行 【免费下载链接】Luckysheet 项目地址: https://gitcode.com/gh_mirrors/luc/Luckysheet 你是否曾经遇到过这样的困扰&#xff1a;当表格数据量超过10万行时&#xff0c;页面加载缓慢、操作卡顿、…

作者头像 李华
网站建设 2026/1/11 10:22:31

如何快速掌握ExifToolGui:照片元数据管理的终极指南

如何快速掌握ExifToolGui&#xff1a;照片元数据管理的终极指南 【免费下载链接】ExifToolGui A GUI for ExifTool 项目地址: https://gitcode.com/gh_mirrors/ex/ExifToolGui 在数字摄影时代&#xff0c;照片管理不再只是简单的文件整理。每张照片背后都隐藏着丰富的元…

作者头像 李华