当你使用100来刮网站的某个部分时,你可以使用
-
soup.find()
和soup.findAll()
或 soup.select()
.find()
和.select()
方法之间有区别吗?
当你使用100来刮网站的某个部分时,你可以使用
soup.find()
和soup.findAll()
或soup.select()
.find()
和.select()
方法之间有区别吗?
总结 comments :
soup.select("div[id=foo] > div > div > div[class=fee] > span > span > a")
个看起来会很难看.find("a", href=re.compile(....))
好得多,但这也是个人偏好.为了提高性能,我们可以运行一些测试,我修改了运行在here的800+html文件上的answer here的代码,这不是详尽的,但应该提供一些选项的可读性和性能的线索:
修改后的功能包括:
from bs4 import BeautifulSoup
from glob import iglob
def parse_find(soup):
author = soup.find("h4", class_="h12 talk-link__speaker").text
title = soup.find("h4", class_="h9 m5").text
date = soup.find("span", class_="meta__val").text.strip()
soup.find("footer",class_="footer").find_previous("data", {
"class": "talk-transcript__para__time"}).text.split(":")
soup.find_all("span",class_="talk-transcript__fragment")
def parse_select(soup):
author = soup.select_one("h4.h12.talk-link__speaker").text
title = soup.select_one("h4.h9.m5").text
date = soup.select_one("span.meta__val").text.strip()
soup.select_one("footer.footer").find_previous("data", {
"class": "talk-transcript__para__time"}).text
soup.select("span.talk-transcript__fragment")
def test(patt, func):
for html in iglob(patt):
with open(html) as f:
func(BeautifulSoup(f, "lxml")
现在来看一下时间安排:
In [7]: from testing import test, parse_find, parse_select
In [8]: timeit test("./talks/*.html",parse_find)
1 loops, best of 3: 51.9 s per loop
In [9]: timeit test("./talks/*.html",parse_select)
1 loops, best of 3: 32.7 s per loop
就像我说的,不是详尽无遗的,但我认为我们可以放心地说,css Select 器肯定更有效.