共计 1662 个字符,预计需要花费 5 分钟才能阅读完成。
写在后面
前段时间遇到了一个比拟有意思的 bug,txt 文件资源用浏览器关上预览的时候乱码。而后就想给大家分享一下,最初的解决计划。
问题 && 剖析
问题:须要把 txt 文件对立转成 utf- 8 的编码格局
剖析:txt 罕用的编码格局包含 ANSI、UTF-8、GB2312,再简体中文的零碎下,ASNI 和 GB2312 是一样的,所以咱们要解决的只有 GB2312 和 UTF-8
⚠️:windows office 2003 的 txt 文件默认编码格局是 GB2312
计划一
第一个计划就比拟有意思了,用的是 FileReader.readAsText,这个属性能够指定文件编码格局,取出文件的纯文本。然而如果指定的编码格局和源文件编码格局不一样,提取进去的文本就会乱码。所以这里的思路是:
1⃣️ 先用“utf-8”拿一次文本
2⃣️ 检测 string 有没有中文,如果没有中文的话一律当成乱码解决(gb2312 和 utf- 8 的英文编码一样)
3⃣️ 如果后面检测进去乱码了,就用“gb2312”从新拿一次文本,这一次就不必检测了,拿进去的就是失常文本了
4⃣️ 用没有乱码的文本生成一个新的文件
function txt2utf8(file, callback){
let newBlob = null
const reader = new FileReader()
// readAsText 能够 指定编码格局 将文件提取成 纯文本
reader.readAsText(file,'utf-8')
reader.onload = e => {
const txtString = e.target.result
// utf-8 的 中文编码 正则表达式
const patrn=/[\uFE30-\uFFA0]/gi;
// 检测以后文本是否含有中文(如果没有,则当乱码解决)// 两个格局的英文编码一样,所以纯英文文件也当成乱码再解决一次
if (!patrn.exec(txtString)) {let reader_gb2312 = new FileReader()
// 再拿一次纯文本,这一次拿到的文本肯定不会乱码
reader_gb2312.readAsText(file,'gb2312')
reader_gb2312.onload = e2 => {newBlob = new Blob([e2.target.result])
callback&&callback(newBlob)
}
} else {
// 这里其实能够间接输入源文件,我是为了对立,都转成 blob 了
newBlob = new Blob([txtString])
callback&&callback(newBlob)
}
}
}
⚠️:不要调整“utf-8”和“gb2312”的程序。因为 readAsText 外部的实现问题,用 gb2312 去拿 utf- 8 的 txt 再做中文检测不精确。
实现流程图:
计划二
这个计划比拟粗犷,引了两个 nodejs,前端也能跑。对于这个计划我只是做了个简略的尝试,不过扩展性上一个计划好不少,有趣味的小伙伴能够试一试。
import iconv from 'iconv-lite'
import jschardet from 'jschardet'
function txt2utf8(file, callback){const reader = new FileReader()
reader.readAsBinaryString(file)
reader.onload = e => {
const txtBinary = e.target.result
// 用 jschardet 拿文件流编码,可能会存在偏差
const binaMg = jschardet.detect(txtBinary)
const buf = new Buffer(txtBinary, 'binary')
// 用 iconv 转码
const str = iconv.decode(buf, binaMg.encoding)
const newBlob = new Blob([str])
callback&&callback(newBlob)
}
}
⚠️:计划二只在本地调试过,本地跑起来没什么问题。具体的可用性和兼容性不确定。
正文完
发表至: javascript
2020-12-26