python爬有道翻译

 

在有道翻译页面中打开开发者工具,在Headers板块找到Request URL以及相应的data。

 

import urllib.request import urllib.parse import json content=input('请输入需要翻译的内容:') #_o要去掉,否则会出先error_code:50的报错
url='http://fanyi.youdao.com/translate?smartresult=dict&smartresult=rule' data={} #开发者工具里有,i和doctype键不可少
data['i']=content data['from']='AUTO' data['to']='AUTO' data['smartresult']='dict' data['client']='fanyideskweb' data['salt']='15695569180611' data['sign']='5b0565493d812bc5e713b895c12d615d' data['doctype']='json' data['version']='2.1' data['keyfrom']='fanyi.web' data['action']='FY_BY_REALTTIME'

#将字典类型的请求数据转化为url编码,并将编码类型转变为'utf-8'类型
data=urllib.parse.urlencode(data).encode('utf-8') #向url请求data的响应结果
response=urllib.request.urlopen(url,data) #读取返回数据内容,decode是转换返回数据的格式为str
html=response.read().decode('utf-8') #使用json将字符串转化成字典
target=json.loads(html) #结果在key='translateResult'的三层列表的key='tgt'中
print("翻译结果:%s" %(target['translateResult'][0][0]['tgt']))

 

  

上面这种很大可能被有道网页给识别出来不是人工在访问,而是代码在访问。

此时我们可以加个‘User-Agent’代理。通过设置User Agent来达到隐藏身份的目的,一般情况下浏览器是通过User-Agent来识别的。

 

通过调用urllib.request.Request()来设置UA。

 

class urllib.request.Request(url, data=None, headers={}, origin_req_host=None, unverifiable=False, method=None) This class is an abstraction of a URL request.

  url should be a string containing a valid URL. 

  headers should be a dictionary #headers要为字典

 

有两种方法设置User Agent:

    1.在创建Request对象的时候,填入headers参数(包含User Agent信息),这个Headers参数要求为字典;

    2.在创建Request对象的时候不添加headers参数,在创建完成之后,使用add_header()的方法,添加headers。

import urllib.request import urllib.parse import json import time while True: content=input('请输入需要翻译的内容(输入"q!退出程序"):') if content=='q!': break; #_o要去掉,否则会出先error_code:50的报错 url='http://fanyi.youdao.com/translate?smartresult=dict&smartresult=rule' ''' 第一种方法 head={} head['User-Agent']='Mozilla/5.0 (Windows NT 10.0; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/65.0.3325.181 Safari/537.36' ''' data={} #开发者工具里有,i和doctype键不可少 data['i']=content data['from']='AUTO' data['to']='AUTO' data['smartresult']='dict' data['client']='fanyideskweb' data['salt']='15695569180611' data['sign']='5b0565493d812bc5e713b895c12d615d' data['doctype']='json' data['version']='2.1' data['keyfrom']='fanyi.web' data['action']='FY_BY_REALTTIME' #将字典类型的请求数据转化为url编码,并将编码类型转变为'utf-8'类型 data=urllib.parse.urlencode(data).encode('utf-8') ''' 第一种方法 req=urllib.request.Request(url,data,head) ''' #第二种方法设置User Agent #创建Request对象 req=urllib.request.Request(url,data) req.add_header('User-Agent','Mozilla/5.0 (Windows NT 10.0; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/65.0.3325.181 Safari/537.36') #传入创建好的Request对象 response=urllib.request.urlopen(req) #读取响应信息并解码 html=response.read().decode('utf-8') #使用json将字符串转化成字典 target=json.loads(html) #结果在key='translateResult'的三层列表的key='tgt'中 print("翻译结果:%s" %(target['translateResult'][0][0]['tgt'])) #5秒一次 time.sleep(5)  

 

    原文作者:_jiandong
    原文地址: https://www.cnblogs.com/-jiandong/p/11600927.html
    本文转自网络文章,转载此文章仅为分享知识,如有侵权,请联系博主进行删除。
点赞