百度360必应搜狗淘宝本站头条
当前位置:网站首页 > 技术教程 > 正文

Python 网络爬虫实战:从零到部署的完整流程

mhr18 2025-08-05 19:57 3 浏览 0 评论

适用人群:初-中级 Python 开发者、数据分析师、运维/测试自动化工程师

工具栈:Python 3.11 + requests + BeautifulSoup / lxml + pandas + (可选) Selenium / Playwright





目录


  1. 环境准备
  2. 目标网站分析
  3. 编写基础爬虫(requests + BS4)
  4. 增强:并发爬取 & 反爬绕过
  5. 数据持久化(CSV / MySQL / MongoDB)
  6. 全流程异常处理与日志
  7. 项目打包部署 & 定时任务
  8. 合规与反爬道德守则






1 环境准备


python -m venv venv && source venv/bin/activate

pip install requests beautifulsoup4 lxml pandas tqdm

# 如需 JS 渲染:

pip install playwright && playwright install chromium

确保:pip >= 23,系统时间正确,否则 SSL 握手易报错。





2 目标网站分析(以某博客文章列表为例)



  1. F12 打开开发者工具 → Network → Doc
  2. 找到列表页 URL,观察分页参数:

  3. https://example.com/page/1 → 规律 /page/{pageNo}
  4. 右键 Copy > Copy selector 确定元素路径:


<h2 class="entry-title"><a href="文章链接">标题</a></h2>



  1. 判断是否需要登录/JS 渲染。若纯 HTML,可用 requests;否则使用 Playwright。






3 基础爬虫示例


import requests, time, random

from bs4 import BeautifulSoup

from urllib.parse import urljoin


HEADERS = {

"User-Agent": "Mozilla/5.0 (Windows NT 10.0; Win64; x64) "

"AppleWebKit/537.36 (KHTML, like Gecko) Chrome/124 Safari/537.36"

}


def fetch_page(url: str) -> str:

resp = requests.get(url, headers=HEADERS, timeout=10)

resp.raise_for_status()

return resp.text


def parse_list(html: str, base: str) -> list[dict]:

soup = BeautifulSoup(html, "lxml")

for h2 in soup.select("h2.entry-title a"):

yield {

"title": h2.text.strip(),

"link": urljoin(base, h2["href"])

}


def main():

base = "https://example.com"

all_posts = []

for page in range(1, 6):

url = f"{base}/page/{page}"

html = fetch_page(url)

all_posts.extend(parse_list(html, base))

time.sleep(random.uniform(1, 3)) # 给服务器喘息

print(f"抓到 {len(all_posts)} 篇文章")

# TODO: 进一步抓取详情页 / 写入文件

if __name__ == "__main__":

main()





4 增强:并发爬取 & 反爬绕过




4-1 异步 + 协程


pip install httpx[http2] asyncio aiofiles

import asyncio, httpx, aiofiles, json

SEM = asyncio.Semaphore(10)


async def fetch(url, client):

async with SEM, client.get(url) as r:

r.raise_for_status()

return r.text


async def crawl(urls):

async with httpx.AsyncClient(headers=HEADERS, http2=True) as client:

tasks = [fetch(u, client) for u in urls]

return await asyncio.gather(*tasks)


# 调用: data = asyncio.run(crawl(url_list))


4-2 常见反爬应对


反爬手段

解决方案

UA / Referer 检测

伪造 headers

Cookie / 登录态

requests.Session + 手工/自动登陆

IP 黑名单

住宅代理 / VPN注意合法合规

JS 动态渲染

Playwright 或 Selenium

CAPTCHA

极验/谷歌验证码需人工或打码平台





5 数据持久化




5-1 写 CSV / Excel


import pandas as pd

pd.DataFrame(all_posts).to_csv("posts.csv", index=False, encoding="utf-8-sig")


5-2 写 MySQL


import pymysql

conn = pymysql.connect(host="127.0.0.1", user="root", password="pwd", database="spider", charset="utf8mb4")

with conn.cursor() as cur:

cur.executemany("INSERT IGNORE INTO article(title,link) VALUES(%s,%s)",

[(d["title"], d["link"]) for d in all_posts])

conn.commit()





6 异常处理与日志


import logging, os

logging.basicConfig(

level=logging.INFO,

filename="spider.log",

format="%(asctime)s %(levelname)s %(message)s"

)


try:

html = fetch_page(url)

except (requests.Timeout, requests.HTTPError) as e:

logging.error("抓取失败 %s → %s", url, e)





7 部署与定时任务



Linux 系统 (crontab):

crontab -e

# 每日凌晨 2 点运行

0 2 * * * /usr/bin/python /home/spider/main.py >> /home/spider/cron.log 2>&1

Docker 打包:

FROM python:3.11-slim

COPY . /app

WORKDIR /app

RUN pip install -r requirements.txt

CMD ["python", "main.py"]





8 合法合规 & 道德守则



  1. 尊重 robots.txt:若站点明确禁止抓取,请勿爬取。
  2. 流量友好:控制并发、限速,避免压垮服务器。
  3. 勿爬敏感/隐私信息:遵守 GDPR、网络安全法。
  4. 遵照授权协议:对商业站点先取得书面许可。
  5. 标注数据来源:二次发布数据时注明原站点。






结论


  • 核心流程:确定目标 → 模拟请求 → 解析 → 存储 → 迭代优化
  • 充分利用异步、并发、分布式队列 (Redis + RSMQ/Celery) 获得更高抓取速率。
  • 安全与合规永远排第一;任何超限操作都可能导致法律风险。

相关推荐

IM群聊消息如此复杂,如何保证不丢不重?

群聊是多人社交的基本诉求,不管是QQ群,还是微信群,一个群友在群内发了一条消息:(1)在线的群友能第一时间收到消息(2)离线的群友能在登陆后收到消息群消息的复杂度要远高于单对单消息。群消息的实时性,可...

Python 网络爬虫实战:从零到部署的完整流程

适用人群:初-中级Python开发者、数据分析师、运维/测试自动化工程师工具栈:Python3.11+requests+BeautifulSoup/lxml+pandas+(...

用上Kiro之后,完全没理由为Cursor续费了

替Cursor续费前最后一秒,免费IDEKiro把钱包按死在屏幕前五位数年费的AI编程助手,被一匹黑马零元秒杀。用过Kiro的人,开note第一件事就是删掉Cursor的自动续费,动作快到连...

分布式微服务中的搜索引擎:架构与实战盘点

01、为什么微服务需要分布式搜索?在单体应用时代,我们通常使用单一数据库的全文检索功能(如MySQL的LIKE语句)或简单的搜索引擎(如早期的Lucene)。但随着业务规模扩大,这种架构暴露出诸多问题...

产品列表获取API接口详解

在现代软件开发中,API(应用程序编程接口)是获取产品列表的核心工具,它允许开发者从远程服务器高效地检索数据。本文将逐步介绍如何设计和使用产品列表获取API接口,包括核心概念、实现步骤、代码示例以及最...

企业和个人基于业务知识和代码库增强的大模型生成代码实践

作者:京东零售杨亚龙1.源起李明是今年刚加入某互联网公司的研发新人,满怀期待地开始了他的职业生涯。然而,短短两周后,他的热情就被现实浇了一盆冷水。第一周:当他第一次接手需求时,mentor只是简单...

从零到一:独立运行若依框架系统并进行本地二次开发

####一、环境准备1.**基础环境**:-JDK1.8+(推荐JDK17)-Maven3.6+-MySQL5.7+(推荐8.0)-Redis5.0+-Node.js16...

一文教你高效优化在Spring Boot3中遇到深度分页查询性能难题?

你有没有这样的经历?在使用SpringBoot3开发项目时,深度分页查询操作让程序运行得越来越慢,页面加载时间变得难以忍受,不仅影响用户体验,还可能导致项目进度受阻。明明代码逻辑看起来没问题,可...

JAVA面试|如何优化limit分页

我们来详细通俗地聊聊如何优化LIMIToffset,size分页。核心问题在于OFFSET的值很大时,性能会急剧下降。想象一下数据库的工作方式,你就明白为什么了。一、为什么OFFSET大时慢?假...

MySQL(143)如何优化分页查询?

优化分页查询是提升数据库性能和用户体验的重要手段。特别是在处理大数据集时,分页查询的效率对系统性能有显著影响。以下是优化分页查询的详细步骤和代码示例。一、传统分页查询传统的分页查询使用OFFSET...

Seata概述

什么是SeataSeata是一款开源的分布式事务解决方案,致力于在微服务架构下提供高性能和简单易用的分布式事务服务也是SpringCloudAlibaba提供的组件Seata官方文档https...

Docmost:一款开源的Wiki和文档协作软件

是一款开源的团队协作Wiki与文档管理工具,定位为Confluence和Notion的开源替代品,专注于提供高效、安全且可定制的知识库解决方案。Docmost的核心优势在于开源免...

B端系统管理「字典管理」模块实战指南

字典管理听起来像“后端杂务”,其实是B端系统配置能力的关键支点。本指南将从真实业务场景出发,系统拆解该模块的设计逻辑、关键字段与典型坑位,让你一文读懂如何搭建一个能跑得久、配得稳的字典模块。一、字典管...

Spring Boot 整合 Redis BitMap 实现 签到与统计

要在SpringBoot中实现RedisBitMap来进行签到和统计,您需要按照以下步骤进行操作:添加Redis依赖:在pom.xml文件中添加Redis依赖:<dependen...

周期性清除Spark Streaming流状态的方法

在SparkStreaming程序中,我们经常需要使用有状态的流来统计一些累积性的指标,比如各个商品的PV。简单的代码描述如下,使用mapWithState()算子:valproductPvSt...

取消回复欢迎 发表评论: