嘘~ 正在从服务器偷取页面 . . .

千里之行,始于足下。python 爬虫 requestes模块(3)


简易网页搜集器(2)

前面我们学会了如何用 UA 伪装骗过服务器爬取我们想要的网页数据,不知道你们会不会和我一样在学会 UA 伪装的兴奋后突然想到另一个问题——就是我们爬取一个页面就要改一次 url 吗?

答案当然是否定的。

我们观察下面两个网址


一个显然易见的区别是我圈起来的部分,即“wd = ”
那我就怀疑搜索不同的关键词,“wd” 都不同,那么是不是这么一回事呢?我们可以试试。

结果就像这样

欧克,这就说明关键在于 “wd”的值,那么我们就可以根据这点写一个动态的URL

代码如下:

import requests

if __name__ == "__main__":

    # 要搜索的内容
    kd = input("百度一下,你就知道:")

    # 指定url
    url = "https://www.baidu.com/s?"

    param = {
        "wd": kd
        }

    # UA 伪装
    header = {
        "User-Agent": "Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/89.0.4389.90 Safari/537.36"
        }

    # 发送请求
    page_text = requests.get(url = url, params = param, headers = header).text

    # 存储
    with open("."+kd+".html", "w", encoding = "utf-8") as fp:
        fp.write(page_text)

    print("爬取数据成功!!!")

当然,url 还可以写成这样的

url = "https://www.baidu.com/s?" + "wd=" + kd

我们打开保存的文件,看看结果

这说明我们的代码没有问题,我们可以不改变代码实现关键词搜索爬取网页了


文章作者: New Ass
版权声明: 本博客所有文章除特別声明外,均采用 CC BY 4.0 许可协议。转载请注明来源 New Ass !
  目录