
# 需要使用requests 和 Beautiful Soup,而且只需一个函数就行
# 如果需要爬取多个页面,可以使用`while`循环来迭代访问多个页面,然后将每一页抓取到的数据以`append`的方式来添加到列表中即可
import requests
from bs4 import BeautifulSoup
def crawl_comments(url):
comments = []
page = requests.get(url)
soup = BeautifulSoup(page.text, 'html.parser')
for item in soup.find_all('div', class_='comment-item'):
comment = item.find('p', class_='comment-body').text
comments.append(comment)
return comments


