要实现批量爬取图片,可以使用Python的requests库和BeautifulSoup库来爬取网页内容,然后使用正则表达式或者其他方法提取出图片的url,最后使用requests库下载图片。
下面是一个基本的示例代码:
import requests from bs4 import BeautifulSoup import os # 定义要爬取的网页URL url = 'http://example.com' # 发送GET请求获取网页内容 response = requests.get(url) html = response.text # 创建保存图片的目录 os.makedirs('images', exist_ok=True) # 使用BeautifulSoup解析网页内容 soup = BeautifulSoup(html, 'html.parser') # 查找所有的图片标签 img_tags = soup.find_all('img') # 遍历图片标签,获取图片的URL并下载 for img_tag in img_tags: img_url = img_tag['src'] img_name = img_url.split('/')[-1] # 获取图片文件名 img_path = os.path.join('images', img_name) # 拼接图片保存路径 # 发送GET请求下载图片 img_response = requests.get(img_url) with open(img_path, 'wb') as f: f.write(img_response.content) print(f'Downloaded {img_path}')
这段代码会从指定的网页URL中爬取所有的图片,并保存到当前目录下的"images"文件夹中。可以根据具体需求适当修改代码。