先看代码,代码大部分都是定义函数
代码就是这样,全是用定义函数,这样出现问题维护和在其他地方调用都比较方便
另外,简单爬虫基本都要遵守:发送请求,获得响应,得到网页文本,定位目标位置(本文用正则表达式),获取信息,打印信息
爬取网址:https://books.toscrape.com/catalogue/page-1.html
一、获取HTML文本
首先定义了一个toscrape_api(url)函数,并传入了一个参数url,这个定义函数用于获得传入参数url的HTML文本,我说白了,我白说了这其实是一个通用函数,只要传入url参数(网址),就获得该参数的HTML。
其中内容还是,发送请求response =requests.get(url,headers =headers),获得响应response,在这其中还做了个简单的反爬headers,至于到底有没有的得到响应,就if语句判断一下
ifresponse.status_code == 200:returnresponse.textelse: print("请求未成功") return 0
如果状态码是200,说明就请求成功了,函数就返回response.text,这就是HTML,不然就输出"请求未成功",并返回0,也好让我们知道请求未成功
二、列表页网址获取
我们想要进去每一个书籍的详情页就需要获得每一个详情页的网址url,通过观察发现(有的人说怎么观察,多点开几个书籍的详情页,观察他们的网址变化),每一个书籍的详情页都是网址(https://books.toscrape.com/catalogue/)+列表页中每一本书的属性为href的值,这就需要我们先爬取列表页中每一本书属性为href的值,在与这个网址(https://books.toscrape.com/catalogue/)结合,就形成了详情页的网页,在进行爬取就行了
但在爬取列表页中href的值之前,我们还需要构造列表页的网址,毕竟列表页有10页,通过观察(还是多点几个列表页,看看网址),很容易发现,网址中就只有其中的数字在发生变化,1—10,刚好就是10页的详情页,用一个for循环就能轻易搞定,就是下面代码:
deftoscrape_index(page): url = f'https://books.toscrape.com/catalogue/page-{page}.html' returntoscrape_api(url)
上面代码中并没有for循环,因为for循环在主程序(定义函数main)中,上面只是构建了列表页网址,其中返回值是定义函数toscrape_api(url),假设传入的参数page为1,那就获得了列表第一页的网址url,然后将该url传入toscrape_api(url)函数中,就获得列表页第一页的HTML
三、获取详情页网址后缀
现在来定义一个方法,用来获得列表页中属性为href的值,也就是详情页的网址的后缀,用正则来匹配
deftoscrape_index_href(html): index_pattern = re.compile('<ahref="(.*?)" title=".*?"')detail= re.findall(index_pattern,html) foritemindetail: index_href = f'https://books.toscrape.com/catalogue/{item}' yieldindex_href
用compile方法构造正则表达式,然后findall方法查找该列表页的HTML,就能找到匹配该列表页所有的href的值,并以列表的形式存储在detail中,其中每一个href的值都是以元组的形式存在,接着用for循环遍历这个列表,把详情页后缀和https://books.toscrape.com/catalogue拼配就形成了详情页,但是遍历后并没有把他全部存储,而是用yield方法生成了一个生成器index_href,简单来说,就是,遇到yieldindex_href就先订到这里,再次下面代码出现index_href才进行下一次的循环,直到再次遇到yieldindex_href又定到这里,或者直接理解成列表也可以遍历,虽然错误,但好理解
四、获取详情页的HTML
既然详情页的网址已经有了,就按照重复性步骤,接着还是发送请求就是下面代码
deftoscrape_detail(href):returntoscrape_api(href)
至于为什么不在上一个定义函数的结尾直接返回toscrape_api(href),而是多此一举的又定义一个函数,因为有条理,而且出现错误也比较好找,OK,通过这个定义函数,我们就获得了详情页的HTML,接着还是像上面某一步一样,用正则匹配详情页中需要的内容
五、构造匹配详情页书名、价格、库存、评级、产品描述的正则
接下来的定义函数稍微有点长,简单分成两部分
1.正则匹配
其实就是构建正则匹配对象,也挺简单,实在不行就单独创建一个.py文件,多尝试几次,代码就是下面
detail_pattern = re.compile(r'<h1>(.*?)</h1>\s+'# 书名'<p class="price_color">(.*?)</p>.*?'# 价格'<p class="star-rating (.*?)">.*?'# 评级'<p>(.*?)</p>.*?'# 产品描述'<td>In stock \(\s*(\d+)\s*available\)</td>'# 库存 ,re.S) detail_results = re.findall(detail_pattern,html)
当然也可以创建5个complie方法,用search()方法进行查找,用group()方法获取内容,也很简单,OK还是说说这个,构建了一个整体的正则匹配,如果第一个匹配不到,后面几个也匹配不到,还是建议用(5个complie方法),构建完就进行查找,用的是findall方法,查找结果是列表,列表中的元素是以元组的形式存在
2.获取内容
既然需要的内容是以列表的形式存在,直接遍历就行了
forresultindetail_results: name = result[0] if result[0] else None preice = result[1] if result[0] else None stock = result[4] if result[0] else None evaluate = result[2] if result[0] else None describe = result[3] if result[0] else None detail_result = { '书名':name, '价格':preice, '库存':stock, '评级':evaluate, '产品描述':describe } results.append(detail_result) return results
通过遍历就拿到列表中的每一个元素,而这些元素又是元组,所以可以根据索引获得值,方才说,如果第一个匹配错误,后面都匹配不了,直接返回[ ],所以这里的if result[0] else None没啥用,可以删了,然后创建字典,把内容以字典形式存储,然后把字典加入到全局变量列表results,那后面的return results也没啥用可以删了,或者写成return 0都行
这样每使用一次定义函数toscrape_compile(),就在全局变量列表results中加入一次字典(就是一本书籍的信息),直到全部加入
六、保存为csv文件
这是固定用法,这个用法只用传入两个参数,文件名称和列表,这里直接命名为toscrape详情页内容.csv,就只用传入一个参数了
defsave_to_csv(results): df = pd.DataFrame(results) df.to_csv('toscrape详情页内容.csv',index=False,encoding='utf-8-sig')
将刚才的全局变量results传入就行了
七、主程序
用以调用各个定义函数,将定义函数联系起来
defmain():forpageinrange(1,3):html= toscrape_index(page)index_href= toscrape_index_href(html)forhrefinindex_href: print(href)html= toscrape_detail(href) toscrape_compile(html) print(results) save_to_csv(results)
这里详细说下整篇思路:先用forpageinrange(1,3)(由于内容有点多,我就爬了前两页的)把值赋给toscrape_index(page)函数,就获得了列表页的html,把列表页的html传入toscrape_index_href(html)函数,就获得了详情页的网址url(index_href),这里就遍历了生成器(index_href),把网址index_href传入toscrape_detail(href)函数,就获得详情页的html,将详情页的html传入toscrape_compile(html)这样就会获得书籍的详细内容,通过for循环,不断网全局变量中加入每一本书籍的内容,最后调用save_to_csv(results)函数,把数据存放在CSV文件中,整体过程就是这样
最后还有个启动程序
if__name__ =='__main__': main()y 运行结果