Dimples's blog Dimples's blog
首页
  • 前端随笔

    • React
  • 系列文章

    • 《ES6 教程》笔记
    • 《Vue》笔记
    • 《TypeScript》笔记
  • 后端文章

    • Java
    • Python
    • 数据库
  • 学习笔记

    • 《Rust》笔记
    • 《SpringBoot》笔记
    • 《Django》笔记
    • 《Docker》笔记
    • 《Python爬虫》笔记
技术分享
友情链接
索引
关于
GitHub (opens new window)

DimplesY

不会写代码
首页
  • 前端随笔

    • React
  • 系列文章

    • 《ES6 教程》笔记
    • 《Vue》笔记
    • 《TypeScript》笔记
  • 后端文章

    • Java
    • Python
    • 数据库
  • 学习笔记

    • 《Rust》笔记
    • 《SpringBoot》笔记
    • 《Django》笔记
    • 《Docker》笔记
    • 《Python爬虫》笔记
技术分享
友情链接
索引
关于
GitHub (opens new window)
  • 爬虫介绍
  • 工具的使用
    • 爬取数据-urllib库
    • urllib库的高级用法
    • URLError与Cookie
    • Requests库的用法
    • 数据提取-正则表达式
    • 数据提取-Beautiful Soup
    • 数据提取-XPath
    • 数据提取-JsonPath
    • 数据提取-PyQuery
    • 爬虫之多线程
    • Selenium与PhantomJS
    • Selenium 处理滚动条
    • Python下Tesseract Ocr引擎及安装介绍
    • Scrapy 框架介绍与安装
    • 《Python爬虫》笔记
    DimplesY
    2022-03-06

    工具的使用

    # 1. 常用的工具

    1. python
    2. pycharm
    3. 浏览器
      1. chrome
      2. 火狐
    4. fiddler

    # 2 fiddler的使用

    # 2.1 操作界面

    image

    # 2.2 界面含义

    请求 (Request) 部分详解

    名称 含义
    Headers 显示客户端发送到服务器的 HTTP 请求的,header 显示为一个分级视图,包含了 Web 客户端信息、Cookie、传输状态等
    Textview 显示 POST 请求的 body 部分为文本
    WebForms 显示请求的 GET 参数 和 POST body 内容
    HexView 用十六进制数据显示请求
    Auth 显示响应 header 中的 Proxy-Authorization(代理身份验证) 和 Authorization(授权) 信息
    Raw 将整个请求显示为纯文本
    JSON 显示JSON格式文件
    XML 如果请求的 body 是 XML格式,就是用分级的 XML 树来显示它

    响应 (Response) 部分详解

    名称 含义
    Transformer 显示响应的编码信息
    Headers 用分级视图显示响应的 header
    TextView 使用文本显示相应的 body
    ImageVies 如果请求是图片资源,显示响应的图片
    HexView 用十六进制数据显示响应
    WebView 响应在 Web 浏览器中的预览效果
    Auth 显示响应 header 中的 Proxy-Authorization(代理身份验证) 和 Authorization(授权) 信息
    Caching 显示此请求的缓存信息
    Privacy 显示此请求的私密 (P3P) 信息
    Raw 将整个响应显示为纯文本
    JSON 显示JSON格式文件
    XML 如果响应的 body 是 XML 格式,就是用分级的 XML 树来显示它

    # 2.3 设置

    # 2.3.1 如何打开

    启动Fiddler,打开菜单栏中的 Tools >Options,打开“Fiddler Options”对话框

    image

    # 2.3.2 设置

    image

    • Capture HTTPS CONNECTs 捕捉HTTPS连接
    • Decrypt HTTPS traffic 解密HTTPS通信
    • Ignore server certificate errors 忽略服务器证书错误
    • all processes 所有进程
    • browsers onlye 仅浏览器
    • nono- browsers only 仅非浏览器
    • remote clients only 仅远程链接

    image

    • Trust Root Certificate(受信任的根证书) 配置Windows信任这个根证书解决安全警告

    image

    • Allow remote computers to connect 允许远程连接
    • Act as system proxy on startup 作为系统启动代理
    • resuse client connections 重用客户端链接

    # 2.4 捕获链接(抓包)

    1. 安装SwitchyOmega 代理管理 Chrome 浏览器插件
    2. 设置代理 image
    帮助我修改此页面 (opens new window)
    #Python#爬虫
    上次更新: 2022/11/20, 18:28:09
    爬虫介绍
    爬取数据-urllib库

    ← 爬虫介绍 爬取数据-urllib库→

    最近更新
    01
    使用 strapi 快速构建 API 和 CMS 管理系统
    03-03
    02
    Rust 开发环境
    11-26
    03
    使用 paka.dev 为 npm 包生成文档
    11-24
    更多文章>
    Theme by Vdoing | Copyright © 2020-2025 Dimples YJ | MIT License
    • 跟随系统
    • 浅色模式
    • 深色模式
    • 阅读模式