前言
我们在写爬虫是遇到最多的应该就是js反爬了,今天分享一个比较常见的js反爬,这个我已经在多个网站上见到过了。
我把js反爬分为参数由js加密生成和js生成cookie等来操作浏览器这两部分,今天说的是第二种情况。
目标网站
列表页url: http://pile("self\.location\s*=\s*\"(.*?)\"").findall(r2.text)[0]r3 = s.get(url3)r3.encoding = "gbk"print r3.text
到这里我们就完美得到最后想要的内容了。
以上就是本文的全部内容,希望对大家的学习有所帮助,也希望大家多多支持。