Python 网络爬虫实战:从零到部署的完整流程
mhr18 2025-08-05 19:57 3 浏览 0 评论
适用人群:初-中级 Python 开发者、数据分析师、运维/测试自动化工程师
工具栈:Python 3.11 + requests + BeautifulSoup / lxml + pandas + (可选) Selenium / Playwright
目录
- 环境准备
- 目标网站分析
- 编写基础爬虫(requests + BS4)
- 增强:并发爬取 & 反爬绕过
- 数据持久化(CSV / MySQL / MongoDB)
- 全流程异常处理与日志
- 项目打包部署 & 定时任务
- 合规与反爬道德守则
1 环境准备
python -m venv venv && source venv/bin/activate
pip install requests beautifulsoup4 lxml pandas tqdm
# 如需 JS 渲染:
pip install playwright && playwright install chromium
确保:pip >= 23,系统时间正确,否则 SSL 握手易报错。
2 目标网站分析(以某博客文章列表为例)
- F12 打开开发者工具 → Network → Doc
- 找到列表页 URL,观察分页参数:
- https://example.com/page/1 → 规律 /page/{pageNo}
- 右键 Copy > Copy selector 确定元素路径:
<h2 class="entry-title"><a href="文章链接">标题</a></h2>
- 判断是否需要登录/JS 渲染。若纯 HTML,可用 requests;否则使用 Playwright。
3 基础爬虫示例
import requests, time, random
from bs4 import BeautifulSoup
from urllib.parse import urljoin
HEADERS = {
"User-Agent": "Mozilla/5.0 (Windows NT 10.0; Win64; x64) "
"AppleWebKit/537.36 (KHTML, like Gecko) Chrome/124 Safari/537.36"
}
def fetch_page(url: str) -> str:
resp = requests.get(url, headers=HEADERS, timeout=10)
resp.raise_for_status()
return resp.text
def parse_list(html: str, base: str) -> list[dict]:
soup = BeautifulSoup(html, "lxml")
for h2 in soup.select("h2.entry-title a"):
yield {
"title": h2.text.strip(),
"link": urljoin(base, h2["href"])
}
def main():
base = "https://example.com"
all_posts = []
for page in range(1, 6):
url = f"{base}/page/{page}"
html = fetch_page(url)
all_posts.extend(parse_list(html, base))
time.sleep(random.uniform(1, 3)) # 给服务器喘息
print(f"抓到 {len(all_posts)} 篇文章")
# TODO: 进一步抓取详情页 / 写入文件
if __name__ == "__main__":
main()
4 增强:并发爬取 & 反爬绕过
4-1 异步 + 协程
pip install httpx[http2] asyncio aiofiles
import asyncio, httpx, aiofiles, json
SEM = asyncio.Semaphore(10)
async def fetch(url, client):
async with SEM, client.get(url) as r:
r.raise_for_status()
return r.text
async def crawl(urls):
async with httpx.AsyncClient(headers=HEADERS, http2=True) as client:
tasks = [fetch(u, client) for u in urls]
return await asyncio.gather(*tasks)
# 调用: data = asyncio.run(crawl(url_list))
4-2 常见反爬应对
反爬手段 | 解决方案 |
UA / Referer 检测 | 伪造 headers |
Cookie / 登录态 | requests.Session + 手工/自动登陆 |
IP 黑名单 | 住宅代理 / VPN注意合法合规 |
JS 动态渲染 | Playwright 或 Selenium |
CAPTCHA | 极验/谷歌验证码需人工或打码平台 |
5 数据持久化
5-1 写 CSV / Excel
import pandas as pd
pd.DataFrame(all_posts).to_csv("posts.csv", index=False, encoding="utf-8-sig")
5-2 写 MySQL
import pymysql
conn = pymysql.connect(host="127.0.0.1", user="root", password="pwd", database="spider", charset="utf8mb4")
with conn.cursor() as cur:
cur.executemany("INSERT IGNORE INTO article(title,link) VALUES(%s,%s)",
[(d["title"], d["link"]) for d in all_posts])
conn.commit()
6 异常处理与日志
import logging, os
logging.basicConfig(
level=logging.INFO,
filename="spider.log",
format="%(asctime)s %(levelname)s %(message)s"
)
try:
html = fetch_page(url)
except (requests.Timeout, requests.HTTPError) as e:
logging.error("抓取失败 %s → %s", url, e)
7 部署与定时任务
Linux 系统 (crontab):
crontab -e
# 每日凌晨 2 点运行
0 2 * * * /usr/bin/python /home/spider/main.py >> /home/spider/cron.log 2>&1
Docker 打包:
FROM python:3.11-slim
COPY . /app
WORKDIR /app
RUN pip install -r requirements.txt
CMD ["python", "main.py"]
8 合法合规 & 道德守则
- 尊重 robots.txt:若站点明确禁止抓取,请勿爬取。
- 流量友好:控制并发、限速,避免压垮服务器。
- 勿爬敏感/隐私信息:遵守 GDPR、网络安全法。
- 遵照授权协议:对商业站点先取得书面许可。
- 标注数据来源:二次发布数据时注明原站点。
结论
- 核心流程:确定目标 → 模拟请求 → 解析 → 存储 → 迭代优化
- 充分利用异步、并发、分布式队列 (Redis + RSMQ/Celery) 获得更高抓取速率。
- 安全与合规永远排第一;任何超限操作都可能导致法律风险。
相关推荐
- IM群聊消息如此复杂,如何保证不丢不重?
-
群聊是多人社交的基本诉求,不管是QQ群,还是微信群,一个群友在群内发了一条消息:(1)在线的群友能第一时间收到消息(2)离线的群友能在登陆后收到消息群消息的复杂度要远高于单对单消息。群消息的实时性,可...
- Python 网络爬虫实战:从零到部署的完整流程
-
适用人群:初-中级Python开发者、数据分析师、运维/测试自动化工程师工具栈:Python3.11+requests+BeautifulSoup/lxml+pandas+(...
- 用上Kiro之后,完全没理由为Cursor续费了
-
替Cursor续费前最后一秒,免费IDEKiro把钱包按死在屏幕前五位数年费的AI编程助手,被一匹黑马零元秒杀。用过Kiro的人,开note第一件事就是删掉Cursor的自动续费,动作快到连...
- 分布式微服务中的搜索引擎:架构与实战盘点
-
01、为什么微服务需要分布式搜索?在单体应用时代,我们通常使用单一数据库的全文检索功能(如MySQL的LIKE语句)或简单的搜索引擎(如早期的Lucene)。但随着业务规模扩大,这种架构暴露出诸多问题...
- 产品列表获取API接口详解
-
在现代软件开发中,API(应用程序编程接口)是获取产品列表的核心工具,它允许开发者从远程服务器高效地检索数据。本文将逐步介绍如何设计和使用产品列表获取API接口,包括核心概念、实现步骤、代码示例以及最...
- 企业和个人基于业务知识和代码库增强的大模型生成代码实践
-
作者:京东零售杨亚龙1.源起李明是今年刚加入某互联网公司的研发新人,满怀期待地开始了他的职业生涯。然而,短短两周后,他的热情就被现实浇了一盆冷水。第一周:当他第一次接手需求时,mentor只是简单...
- 从零到一:独立运行若依框架系统并进行本地二次开发
-
####一、环境准备1.**基础环境**:-JDK1.8+(推荐JDK17)-Maven3.6+-MySQL5.7+(推荐8.0)-Redis5.0+-Node.js16...
- 一文教你高效优化在Spring Boot3中遇到深度分页查询性能难题?
-
你有没有这样的经历?在使用SpringBoot3开发项目时,深度分页查询操作让程序运行得越来越慢,页面加载时间变得难以忍受,不仅影响用户体验,还可能导致项目进度受阻。明明代码逻辑看起来没问题,可...
- JAVA面试|如何优化limit分页
-
我们来详细通俗地聊聊如何优化LIMIToffset,size分页。核心问题在于OFFSET的值很大时,性能会急剧下降。想象一下数据库的工作方式,你就明白为什么了。一、为什么OFFSET大时慢?假...
- MySQL(143)如何优化分页查询?
-
优化分页查询是提升数据库性能和用户体验的重要手段。特别是在处理大数据集时,分页查询的效率对系统性能有显著影响。以下是优化分页查询的详细步骤和代码示例。一、传统分页查询传统的分页查询使用OFFSET...
- Seata概述
-
什么是SeataSeata是一款开源的分布式事务解决方案,致力于在微服务架构下提供高性能和简单易用的分布式事务服务也是SpringCloudAlibaba提供的组件Seata官方文档https...
- Docmost:一款开源的Wiki和文档协作软件
-
是一款开源的团队协作Wiki与文档管理工具,定位为Confluence和Notion的开源替代品,专注于提供高效、安全且可定制的知识库解决方案。Docmost的核心优势在于开源免...
- B端系统管理「字典管理」模块实战指南
-
字典管理听起来像“后端杂务”,其实是B端系统配置能力的关键支点。本指南将从真实业务场景出发,系统拆解该模块的设计逻辑、关键字段与典型坑位,让你一文读懂如何搭建一个能跑得久、配得稳的字典模块。一、字典管...
- Spring Boot 整合 Redis BitMap 实现 签到与统计
-
要在SpringBoot中实现RedisBitMap来进行签到和统计,您需要按照以下步骤进行操作:添加Redis依赖:在pom.xml文件中添加Redis依赖:<dependen...
- 周期性清除Spark Streaming流状态的方法
-
在SparkStreaming程序中,我们经常需要使用有状态的流来统计一些累积性的指标,比如各个商品的PV。简单的代码描述如下,使用mapWithState()算子:valproductPvSt...
你 发表评论:
欢迎- 一周热门
-
-
Redis客户端 Jedis 与 Lettuce
-
高并发架构系列:Redis并发竞争key的解决方案详解
-
redis如何防止并发(redis如何防止高并发)
-
Java SE Development Kit 8u441下载地址【windows版本】
-
开源推荐:如何实现的一个高性能 Redis 服务器
-
redis安装与调优部署文档(WinServer)
-
Redis 入门 - 安装最全讲解(Windows、Linux、Docker)
-
一文带你了解 Redis 的发布与订阅的底层原理
-
Redis如何应对并发访问(redis控制并发量)
-
Oracle如何创建用户,表空间(oracle19c创建表空间用户)
-
- 最近发表
- 标签列表
-
- oracle位图索引 (74)
- oracle批量插入数据 (65)
- oracle事务隔离级别 (59)
- oracle主从同步 (56)
- oracle 乐观锁 (53)
- redis 命令 (83)
- php redis (97)
- redis 存储 (67)
- redis 锁 (74)
- 启动 redis (73)
- redis 时间 (60)
- redis 删除 (69)
- redis内存 (64)
- redis并发 (53)
- redis 主从 (71)
- redis同步 (53)
- redis结构 (53)
- redis 订阅 (54)
- redis 登录 (62)
- redis 面试 (58)
- redis问题 (54)
- 阿里 redis (67)
- redis的缓存 (57)
- lua redis (59)
- redis 连接池 (64)