Redian新闻
>
使用 Python 的 requests 和 Beautiful Soup 来分析网页 | Linux 中国

使用 Python 的 requests 和 Beautiful Soup 来分析网页 | Linux 中国

科技
 
导读:学习这个 Python 教程,轻松提取网页的有关信息。                               
本文字数:4004,阅读时长大约:5分钟

学习这个 Python 教程,轻松提取网页的有关信息。

浏览网页可能占了你一天中的大部分时间。然而,你总是需要手动浏览,这很讨厌,不是吗?你必须打开浏览器,然后访问一个网站,单击按钮,移动鼠标……相当费时费力。如果能够通过代码与互联网交互,岂不是更好吗?

在 Python 的 requests 模块的帮助下,你可以使用 Python 从互联网中获取数据:

  1. import requests
  2. DATA = "https://opensource.com/article/22/5/document-source-code-doxygen-linux"
  3. PAGE = requests.get(DATA)
  4. print(PAGE.text)

在以上代码示例中,你首先导入了 requests 模块。接着,你创建了两个变量:其中一个叫做 DATA,它用来保存你要下载的 URL。在之后的代码中,你将能够在每次运行应用程序时提供不同的 URL。不过,就目前而言,最简单的方法是“硬编码”一个测试 URL,以达到演示目的。

另一个变量是 PAGE。代码读取了存储在 DATA 中的 URL,然后把它作为参数传入 requests.get 函数,最后用变量 PAGE 来接收函数的返回值。requests 模块及其 .get 函数的功能是:“读取”一个互联网地址(一个 URL)、访问互联网,并下载位于该地址的任何内容。

当然,其中涉及到很多步骤。幸运的是,你不必自己弄清楚,这也正是 Python 模块存在的原因。最后,你告诉 Python 打印 requests.get 存储在 PAGE 变量的 .text 字段中的所有内容。

Beautiful Soup

如果你运行上面的示例代码,你会得到示例 URL 的所有内容,并且,它们会不加选择地输出到你的终端里。这是因为在代码中,你对 requests 收集到的数据所做的唯一事情,就是打印它。然而,解析文本才是更加有趣的。

Python 可以通过其最基本的功能来“读取”文本,但解析文本允许你搜索模式、特定单词、HTML 标签等。你可以自己解析 requests 返回的文本,不过,使用专门的模块会容易得多。针对 HTML 和 XML 文本,我们有 Beautiful Soup🔗 beautiful-soup-4.readthedocs.io 库。

下面这段代码完成了同样的事情,只不过,它使用了 Beautiful Soup 来解析下载的文本。因为 Beautiful Soup 可以识别 HTML 元素,所以你可以使用它的一些内置功能,让输出对人眼更友好。

例如,在程序的末尾,你可以使用 Beautiful Soup 的 .prettify 函数来处理文本(使其更美观),而不是直接打印原始文本:

  1. from bs4 import BeautifulSoup
  2. import requests
  3. PAGE = requests.get("https://opensource.com/article/22/5/document-source-code-doxygen-linux")
  4. SOUP = BeautifulSoup(PAGE.text, 'html.parser')
  5. # Press the green button in the gutter to run the script.
  6. if __name__ == '__main__':
  7.     # do a thing here
  8.     print(SOUP.prettify())

通过以上代码,我们确保了每个打开的 HTML 标签都输出在单独的一行,并带有适当的缩进,以帮助说明标签的继承关系。实际上,Beautiful Soup 能够通过更多方式来理解 HTML 标签,而不仅仅是将它打印出来。

你可以选择打印某个特定标签,而不是打印整个页面。例如,尝试将打印的选择器从 print(SOUP.prettify()) 更改为:

  1. print(SOUP.p)

这只会打印一个 <p> 标签。具体来说,它只打印遇到的第一个 <p> 标签。要打印所有的 <p> 标签,你需要使用一个循环。

循环

使用 Beautiful Soup 的 find_all 函数,你可以创建一个 for 循环,从而遍历 SOUP 变量中包含的整个网页。除了 <p> 标签之外,你可能也会对其他标签感兴趣,因此最好将其构建为自定义函数,由 Python 中的 def 关键字(意思是 “定义”(define))指定。

  1. def loopit():
  2.     for TAG in SOUP.find_all('p'):
  3.         print(TAG)

你可以随意更改临时变量 TAG 的名字,例如 ITEM 或 i 或任何你喜欢的。每次循环运行时,TAG 中都会包含 find_all 函数的搜索结果。在此代码中,它搜索的是 <p> 标签。

函数不会自动执行,除非你显式地调用它。你可以在代码的末尾调用这个函数:

  1. # Press the green button in the gutter to run the script.
  2. if __name__ == '__main__':
  3.     # do a thing here
  4.     loopit()

运行代码以查看所有的 <p> 标签和它们的内容。

只获取内容

你可以通过指定只需要 “字符串(string)”(它是 “单词(words)” 的编程术语)来排除打印标签。

  1. def loopit():
  2.     for TAG in SOUP.find_all('p'):
  3.         print(TAG.string)

当然,一旦你有了网页的文本,你就可以用标准的 Python 字符串库进一步解析它。例如,你可以使用 len 和 split 函数获得单词个数:

  1. def loopit():
  2.     for TAG in SOUP.find_all('p'):
  3.         if TAG.string is not None:
  4.             print(len(TAG.string.split()))

这将打印每个段落元素中的字符串个数,省略那些没有任何字符串的段落。要获得字符串总数,你需要用到变量和一些基本数学知识:

  1. def loopit():
  2.     NUM = 0
  3.     for TAG in SOUP.find_all('p'):
  4.         if TAG.string is not None:
  5.             NUM = NUM + len(TAG.string.split())
  6.     print("Grand total is ", NUM)

Python 作业

你可以使用 Beautiful Soup 和 Python 提取更多信息。以下是有关如何改进你的应用程序的一些想法:

◈ 接受输入🔗 opensource.com,这样你就可以在启动应用程序时,指定要下载和分析的 URL。
◈ 统计页面上图片(<img> 标签)的数量。
◈ 统计另一个标签中的图片(<img> 标签)的数量(例如,仅出现在 <main> div 中的图片,或仅出现在 </p> 标签之后的图片)。

via: https://opensource.com/article/22/6/analyze-web-pages-python-requests-beautiful-soup

作者:Seth Kenlon 选题:lkxed 译者:lkxed 校对:wxy

本文由 LCTT 原创编译,Linux中国 荣誉推出


LCTT 译者 :六开箱
🌟🌟🌟🌟🌟
翻译: 94.0 篇
|
贡献: 104 天
2022-03-16
2022-06-28
https://linux.cn/lctt/lkxed
欢迎遵照 CC-BY-SA 协议规定转载,
如需转载,请在文章下留言 “转载:公众号名称”,
我们将为您添加白名单,授权“转载文章时可以修改”。

微信扫码关注该文公众号作者

戳这里提交新闻线索和高质量文章给我们。
相关阅读
The Questionable ‘Chinese-ness’ of Chinese Sci-Fi机器学习:使用 Python 进行分类 | Linux 中国免费演出|Free Shakespeare on the Common 2022:Much Ado About NothingChinese Experts Refute ‘Wrong’ Claims on Domestic COVID Vaccines我周围遇到的一些犹太人以及其文化记忆(2020年春季旧稿)Shenzhen Funeral Home Requires COVID Test Result for Dead在 Linux 上使用 Rhythbox 听音乐 | Linux 中国Chinese Cities Target Made-Up Street Names Attracting Influencer机器学习:使用 Python 进行预测 | Linux 中国陀螺研究院:2022年上半年Quest2出货量约590万台,Quest系列累计出货量达1770万台;Meta Q2 财报公布修复 Ubuntu Linux 中 “Command ‘python’ not found” 的错误 | Linux 中国Linux Lite 6.0 发布:弃用 Firefox,默认浏览器使用 Chrome | Linux 中国西南航空 (Southwest Airlines) Travel Funds 转给别人的办法【奇技淫巧】“bread and butter”不是指“面包和黄油”Thonny:在学校教授 Python 编程的理想 IDE | Linux 中国使用 rustup 管理你的 Rust 工具链 | Linux 中国爬虫必备Beautiful Soup包使用详解Henan Bank Depositors Continue to Worry About Red Health Code春天来到勃艮第之Dijon --- 美术博物馆Cities Raise Testing Frequency to Catch COVID Cases Early如何在 Linux 桌面中启用 “激活 Linux” 水印通知 | Linux 中国Disabled Man in Chinese Countryside Inspires Disillusioned YouthChinese Cities Loosen Housing Policies for Three-Child FamiliesPython批量将Photoshop文件保存为图片Abrupt Closure of Non-Academic Training Centers Raises Questions彭博社开源 Memray,一个 Python 内存剖析器 | Linux 中国在 Python 中使用机器学习来检测钓鱼链接 | Linux 中国胡耀邦训斥梁步庭爬虫必备requests的扩展包总结New Rules for Schools in Shanghai, Added Pressure for StudentsFudgie?令人惊叹的 Budgie 桌面即将登陆 Fedora Linux | Linux 中国拍花遇到了兔子Python 中可观测性的 7 个关键部分 | Linux 中国用 Python 测试 API 的 3 种方式 | Linux 中国Chase Southwest Premier 信用卡【75k 开卡奖励】
logo
联系我们隐私协议©2024 redian.news
Redian新闻
Redian.news刊载任何文章,不代表同意其说法或描述,仅为提供更多信息,也不构成任何建议。文章信息的合法性及真实性由其作者负责,与Redian.news及其运营公司无关。欢迎投稿,如发现稿件侵权,或作者不愿在本网发表文章,请版权拥有者通知本网处理。