源码网商城,靠谱的源码在线交易网站 我的订单 购物车 帮助

源码网商城

Python BeautifulSoup中文乱码问题的2种解决方法

  • 时间:2021-05-01 21:22 编辑: 来源: 阅读:
  • 扫一扫,手机访问
摘要:Python BeautifulSoup中文乱码问题的2种解决方法
[b]解决方法一:[/b] 使用python的BeautifulSoup来抓取网页然后输出网页标题,但是输出的总是乱码,找了好久找到解决办法,下面分享给大家 首先是代码
[u]复制代码[/u] 代码如下:
from bs4 import BeautifulSoup import urllib2 url = 'http://www.1sucai.cn/' page = urllib2.urlopen(url) soup = BeautifulSoup(page,from_encoding="utf8") print soup.original_encoding print (soup.title).encode('gb18030') file = open("title.txt","w") file.write(str(soup.title)) file.close()   for link in soup.find_all('a'):     print link['href']
在刚开始测试的时候发现,虽然输出是乱码的,但是写在文件里面却是正常的.然后在网上找了找解决办法才发现 print一个对象的逻辑:内部是调用对象的__str__得到对应的字符串的,此处对应的是soup的__str__ 而针对于soup本身,其实已经是Unicode编码,所以可以通过指定__str__输出时的编码为GBK,以使得此处正确显示非乱码的中文 而对于cmd:(中文的系统中)编码为GBK,所以只要重新编码为gb18030就可以正常输出了 就是下面这行代码
[u]复制代码[/u] 代码如下:
print (soup.title).encode('gb18030')
[b]解决方法二:[/b] BeautifulSoup在解析utf-8编码的网页时,如果不指定fromEncoding或者将fromEncoding指定为utf-8会出现中文乱码的现象。 解决此问题的方法是将Beautifulsoup构造函数中的fromEncoding参数的值指定为:gb18030
[u]复制代码[/u] 代码如下:
import urllib2 from BeautifulSoup import BeautifulSoup page = urllib2.urlopen('http://www.1sucai.cn/'); soup = BeautifulSoup(page,fromEncoding="gb18030") print soup.originalEncoding print soup.prettify()
  • 全部评论(0)
联系客服
客服电话:
400-000-3129
微信版

扫一扫进微信版
返回顶部