昨天,处理一个 600M 的文件,把文件复制到 linux 中打开乱码,百度了一下,说可以用 iconv 转码,可是我用 iconv 的时候, 600 多 M 的文档转了好久,后面他居然还提示错误,无法成功转换,我崩溃了,用 VIM 转码也不行,而且 VIM 打开 600M 的文件明显有卡顿了, 后面只能借助 notepad+ 来转码了,可 notepad++ 居然不能打开大于 500 多 M 的文件,还得把 2 个文件分割,然后用 notepad 转 utf-8 码,在用 cat 合并,好麻烦呀 。请问有什么别的方法么?
还有,我在用 notepad++转码的时候很快的,点一下格式--转成 UTF-8 码 就 OK 了,为什么 linux 下的 iconv 转码那个慢,感觉是一个个的转的,好恐怖
1
tracyone 2016-03-10 22:06:39 +08:00
难道你转成 utf-8 之后里面的多字节文字还能看?
|
2
xiaorixin 2016-03-10 22:19:14 +08:00
如果你觉得 iconv 比较慢可以把文件按行分割一下, split --help 查看具体使用方法。然后再 iconv, 完了 cat 到一起,麻烦就写个脚本。
|
3
yuedingwangji OP @tracyone 什么意思?
|
4
yuedingwangji OP @xiaorixin 600M 的文档 分割 完 在合并?
|
5
clino 2016-03-10 22:29:14 +08:00 via Android
用 python 写个几行代码就能搞定
|
6
lgh 2016-03-10 22:52:54 +08:00
用百度就是个错误的开始……正确的姿势不是转码而是找到在 Linux 下查看 GBK 的方法,例如顺手 Google 到的这篇 http://edyfox.codecarver.org/html/vim_fileencodings_detection.html
|
7
yuedingwangji OP @clino 怎么弄,教我
|
8
fasling 2016-03-11 00:39:41 +08:00
#python3.4
f=open('utf8.txt','wb') for line in open('gbk.txt'): f.write(line.encode('utf8')) f.close() |
9
cxbig 2016-03-11 00:49:30 +08:00
随便用个语言, php 、 python 或 ruby 写几行就搞定的事。
唯一要注意的是中文编码是不是标称的那个,写爬虫的时候遇到过,网页标注的是 gbk ,其实是 gb2312 。 |
10
skydiver 2016-03-11 00:51:04 +08:00 via iPad
cat xx.txt | iconv -f GBK
|
11
clino 2016-03-11 08:46:57 +08:00
|
12
michaelOoO 2016-03-11 09:24:56 +08:00
如果只是为了查看,不是非要转换的话, 配置下 vim 直接打开就可以看:
vim 中设置: ` set fileencodings=ucs-bom,utf-8,cp936,gb18030,big5,euc-jp,euc-kr,latin1 ` 链接: http://edyfox.codecarver.org/html/vim_fileencodings_detection.html |
13
lostsnow 2016-03-11 09:54:23 +08:00
```
export LANG=zh_CN.GBK ``` |
14
realpg 2016-03-11 09:58:40 +08:00
U 盘拷出来,随便找个 windows 电脑, ultraedit 打开,另存为,编码选 UTF-8 ,存 U 盘里,再拷到 linux 里,完事。
ultraedit 绿色版满天飞,不到 20MB |
15
WangYanjie 2016-03-11 10:15:03 +08:00
@lostsnow 这是最快的,楼主不要怀疑了
|
16
greenskinmonster 2016-03-11 10:19:56 +08:00
enca -L zh_CN -x utf-8 file.txt
|
17
BurNFans 2016-03-11 10:23:29 +08:00
python 一行代码搞定, file("xxx_uf8", "w").write(file("xxx").read().decode("gbk").encode("utf8"))
|
18
khan 2016-03-11 10:26:43 +08:00
@cxbig gb2312 不是 gbk 的子集么, gb2312 支持 8k 多个汉字, gbk 2w 多个汉字, 他们之间不存在错误的问题啊
|
20
yuedingwangji OP @realpg ultraedit 必须另存为的时候选编码么? 我是直接 文件-转换 ,哪里转码的,不过没效果
|
21
ToughGuy 2016-03-11 11:05:11 +08:00
$ du -h gbk.txt
643M gbk.txt $ time iconv -f GBK -t UTF-8 gbk.txt >/dev/null real 0m2.995s user 0m2.951s sys 0m0.043s $ time iconv -f GBK -t UTF-8 gbk.txt > /data/utf8.txt real 0m5.579s user 0m3.061s sys 0m0.797s |
22
tatsuteng 2016-03-11 11:12:31 +08:00
mousepad ?
|
23
withrock 2016-03-11 11:16:05 +08:00
应该是要在你的 linux 上安装 GBK 的字符集吧?
|
24
sudo123 2016-03-11 11:45:38 +08:00
系统自带的编辑器打开文本文件可以选择特定的编码
|
25
clino 2016-03-11 20:40:01 +08:00
话说楼主这些方法都试过哪些? 搞定了吗?
|
26
woyaojizhu8 2016-03-11 21:20:20 +08:00
@tatsuteng 正解
|
27
xiaorixin 2016-03-12 09:35:14 +08:00
600M 转完再 cat 也很快的。
|
28
yuedingwangji OP @WangYanjie 这个我试过了 ,好像没用
|
29
yuedingwangji OP @ToughGuy 为什么你的这么快的?
|
30
WangYanjie 2016-03-13 00:26:46 +08:00
@yuedingwangji 如果你是用 xshell 这样的软件连接的 linux 的话,你可能还要修改 xshell 对应的编码
|
31
ToughGuy 2016-03-13 16:53:11 +08:00
@yuedingwangji
我是去百度百科里面抓的一页中文, 先转换成 GBK , 然后拼接一个 600M 的文件。 不知道速度快和重复两有没有关系。 你可以试试输出到 /dev/null 排除掉磁盘 I/O 问题再看看速度如何。 我的 CPU 是 I5-4570 |
32
yuedingwangji OP @BurNFans 谢谢!
|
33
yuedingwangji OP @fasling 谢谢,有空试下
|
34
yuedingwangji OP @ToughGuy 我有一个小疑惑, 就是屏幕输出的时候是不是很慢, 如果丢到 /dev/null 理就很快? 磁盘 iO 问题说的是什么? 没听过
|
35
gbcbooks 2016-03-21 10:21:10 +08:00
@michaelOoO 这位兄台给出的解决方案我就在用。楼主可以看看。
|
36
yuedingwangji OP @gbcbooks 我是要转换的 ,单门查看我在 windows 就可以了
|
37
woyaojizhu8 2016-03-31 02:19:26 +08:00
mousepad 和 leafpad
|