对于知网能爬出来的东西 首先说一下 论文的题目 时间 作者 摘要等信息 本文主要对搜索界面进行爬取
对于知网的爬虫可以说挺简单的,其难点在于有一个二次请求
通过断点分析youfiddler分析有两个要注意的url一个是红色的一个是橘色的,先通过橘色请求得到一个数据然后在通过红色请求的得到页面信息这样就完了 还有一点要注意的 cookie问题
网上的大神说知网跟踪用户的cookie所以请求的时候一定注意要加入cookie
![](https://img-blog.csdnimg.cn/20190503114738959.png?x-oss-process=image/watermark,type_ZmFuZ3poZW5naGVpdGk,shadow_10,text_aHR0cHM6Ly9ibG9nLmNzZG4ubmV0L3FxXzM4NDEzODQ0,size_16,color_FFFFFF,t_70)
import requests
from bs4 import BeautifulSoup
import time
firsturl="http://kns.cnki.net/kns/request/SearchHandler.ashx"
wantsearch=input()
def ToUtf(string):
return string.encode('utf8')
times = time.strftime('%a %b %d %Y %H:%M:%S') + ' GMT+0800 (中国标准时间)'
headers2={'action': '',
'ua': '1.11',
'isinEn': '1',