asus10tu 最近的时间轴更新
asus10tu

asus10tu

V2EX 第 384008 号会员,加入于 2019-02-15 09:47:37 +08:00
asus10tu 最近回复了
@feather12315 之前有考虑过,数据分析感觉比较看学历,web 开发我目前只会 python 感觉竞争力不大,后端安全这个我去看看,感谢老哥
@davidshao 由于从事这么多年薪资都不是很高,惭愧存款挺微薄的,那估计我再卷一会试试,感谢见解~
@vvhhaaattt 有道理确实有点悟了,再转确实不是一个好选择,只追热风口,冷下来确实还是一个样子。最近补充一下自己厚度吧。
@davidshao 感谢提点,但是这个年龄了,感觉人生不完全自己掌握,外面求职估计大多数不要这么大年龄了,除非管理层的,死磕下去不知道还能持续多久
@0xZhangKe 问题已经解决啦,感谢各位的回复
@ClericPy 噢问题解决了
我发现中文参数直接使用 ‘粤’.encode('gbk')这样是不行的,得用 requests.utils.quote("粤",encoding='gbk')这句话才有效果,估计 bytes 格式问题,感谢解答!
@also24 好的,感谢。
@ClericPy 感谢大哥详细的解释,又明白了一点了。

可是我目前用的抓包软件已经是 httpAnalyzer 和 Fiddler,需要换哪个工具更好用呢。

但是我自己写请求用上述工具抓自己的包,看到 url 都是以 urldecode 编码方式显示的,比如 ?name=粤 AAA 抓包看到是 ?name=%E7%B2%A4AAA,可是目标网站抓出来的却是?name=??AAA,是不是说明他没有 urldecode 呢,我自己无论先进行一层 utf8 编码或者 gbk 编码,均无法达到这种效果。
@ClericPy 是这样的,我最近接触一个网站爬虫,里面使用了 YAHOO.util.Connect.asyncRequest,这样的一个库进行 POST 请求,我用抓包软件进行查看,看到他把内容全部拼接在 url 上,body 体为空,但是 url 上的中文部分是乱码,比如粤字,抓包软件上显示的是:ÔÁ,所以我怀疑他是中文直接发送的,无奈也找不到方法。
@kerr92 正常好像是先进行 URL 编码转换,再用 ASCII 转换一次,发出请求。
现在想希望是不进行 URL 编码转换,然后用 gbk 转换一次,发出请求
关于   ·   帮助文档   ·   API   ·   FAQ   ·   我们的愿景   ·   广告投放   ·   感谢   ·   实用小工具   ·   4505 人在线   最高记录 5497   ·     Select Language
创意工作者们的社区
World is powered by solitude
VERSION: 3.9.8.5 · 18ms · UTC 06:27 · PVG 14:27 · LAX 23:27 · JFK 02:27
Developed with CodeLauncher
♥ Do have faith in what you're doing.