内存数据结构
这个就太多了。。略
IO:json/xml(无类型,unicode支持不好等),二进制编码
- JSON演化mmessagePack
不流行,因为需要在编码数据中包含对象名称.只是删除空白和标点的感觉 thrift BinaryProtocal 字段名替换为序号
{ "userName": "Martin", "favoriteNumber": 1337, "interests": ["daydreaming", "hacking"]}
- pb(thrift的compactProtocal和这个一样)
field和type在单个字节。数据的优化数据最高位标识是否还有后续,这个1337有错误,是下面的
- Avro
数据变更兼容:
thrift和protocal可以换换名字。但是不能换编号,可以增加编号,旧的编号删了也不能再用,后加的向前兼容不能设为必选。
模式和数据编码分别传送,一个传一个模式,大批数据,无编号,读者模式与作者模式匹配,读者解析作者模式只能添加或删除有默认值的字段
以上数字的转变全是基于VLQ可变长二进制数字编码
的变体。最低位加0表示整数,1表示负数,然后7位一个分割。从最后开始,每个后面有第一位是1,否则是0.
压缩
- 压缩算法对比
https://catchchallenger.first-world.info/wiki/Quick_Benchmark:_Gzip_vs_Bzip2_vs_LZMA_vs_XZ_vs_LZ4_vs_LZOhttps://www.percona.com/blog/2016/04/13/evaluating-database-compression-methods-update/
- snappy/LZ77/LZSS
DC动态词典编码:用它在词典中的位置号码代替。静态需要实现知道词典,讲下动态的
前向缓冲区(数据流将要处理的所有字符)的开始字符串与滑动窗口中的字符串进行最长匹配,无移动窗口,若找到<匹配字符串在滑动窗口的位置,长度,移除前置缓冲区中匹配部分移除后续第一个字符>,LZSS增加匹配长读限制
如何快速最长匹配字符串:简单的将窗口中所有字符顺序组合存入hash,也可以存固定长度,比如2,匹配多个后再继续向后比较这多个。
snappy 将整个数据切割为32k一个大小的块,块只见那无关联,2个字节就可表示匹配字符串的相对位置,匹配长度至少为4,hash字符串长度也固定为4.输出字符串的压缩形式为 编码方案,匹配字符串起始位置差值,匹配字符串长度 - EC编码:N个数据块和校验,可以任意丢k个相互恢复
因为我们都是多副本,
N个Data块,生成K个Parity块,N+K中可任意丢K个
可靠性相同时比多副本冗余度低
只有一份数据可读,修复较复杂
提高可靠性:增加K,增加N和K,提高修复速度
https://blog.csdn.net/shelldo...