当前位置 博文首页 > python爬虫用request库处理cookie的实例讲解

    python爬虫用request库处理cookie的实例讲解

    作者:宋雪维 时间:2021-07-25 11:56

    python爬虫中使用urli库可以使用opener"发送多个请求,这些请求是能共享处理cookie的,小编之前也提过python爬虫中使用request库会比urllib库更加⽅便,使用使用requests也能达到共享cookie的目的,即使用request库get方法和使用requests库提供的session对象都可以处理。

    方法一:使用request库get方法

    resp = requests.get('http://www.baidu.com/') 
    print(resp.cookies) 
    print(resp.cookies.get_dict())

    方法二:使用requests库提供的 session对象

    import requests
    url = "http://www.renren.com/PLogin.do" 
    data = {"email":"970138074@qq.com",'password':"pythonspider"} 
    headers = { 'User-Agent': "Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 
    (KHTML, like Gecko) Chrome/62.0.3202.94 Safari/537.36" }
    #登录
    session = requests.session() session.post(url,data=data,headers=headers)
    #访问
    resp = session.get('http://www.renren.com/256450404/profile')
    print(resp.text) ```

    知识点扩展:

    我们知道了requests中的session对象能够在请求之间保持cookie,它极大地方便了我们去使用cookie。当我们想设置方法级别中的请求时,可以如下面示例一样操作。

    import requests
    s = requests.session()
    # 第一步:发送一个请求,用于设置请求中的cookies
    cookies = dict(cookies_are='cookie1')
    # tips: http://httpbin.org能够用于测试http请求和响应
    r1 = s.get(url='http://httpbin.org/cookies', cookies=cookies)
    print(r1.text)
    # 第二步:发送一个请求,用于再次设置请求中的cookies
    cookies = dict(cookies_are='cookie2')
    r2 = s.get(url='http://httpbin.org/cookies', cookies=cookies)
    print(r2.text)

    运行后

    # r1.text
    {
     "cookies": {
     "cookies_are": "cookie1"
     }
    }
    # t2.text
    {
     "cookies": {
     "cookies_are": "cookie2"
     }
    }
    jsjbwy
    下一篇:没有了