=数据压缩算法=统计算法=
    001100;001110;110001;110011;
    把数据按照顺序对齐:
    001100;001110;110001;110011;
    把数据按照大小对齐:
    110011;110001;001110;001100;
    把数据按照近似对齐:
    110011和001100互为求反;110001和001110互为求反;
    每一段数据,都有多个标签,通过添加标签的方式,从而减少数据穷举试错的次数。
    =有限进制速记算法=
    把任何数都可以记录为a^b*c!+d;a的b次方乘以c的阶乘加d;
    如43的37次方乘以31的阶乘加499739
    43^37*31!+499739
    43^37=2.7436762028363398179986072951166e+60
    31!=8.22283865417792281772556288e+33
    43^37*31!=2.2560806735230762092253487562356e+94
    =跳数统计速记算法=
    如101001000100001000001000000100000001
    123456789012345678901234567890123456→作者避免自己看看得眼睛疼,所以使用数字在特定字体下宽度和高度是一样的方式,来进行作为标尺,数间隔多少位用的。
    使用跳一位1的方式统计,结果如下:
    奇数次1生效:偶数次1被当做0:1(中间有4个0,其中出现过一次1)1(中间有8个0,其中出现过一次1)1(中间有12个0,其中出现过一次1)+尾数00000001
    偶数次1生效:头数10+1(中间有6个0,其中出现过一次1)1(中间有10个0,其中出现过一次1)1(中间有14个0,其中出现过一次1)
    然后把这些数据比对合并,就能得出源数据。
    使用跳两位1的方式统计,结果如下:
    第一个1对齐:1(中间有8个0,其中出现过两次1)1(中间有17个0,其中出现过两次1)1+尾数00000001
    第二个1对齐:头数10+1(中间有11个0,其中出现过两次1)1(中间有20个0,其中出现过两次1)1
    第三个1对齐:头数10100+1(中间有11个0,其中出现过两次1)1(中间有14个0,其中出现过两次1)1+尾数000000100000001
    也就是说,当1和0不连续的情况出现得越多,那么使用跳n个1(以及另一个注册表中跳n个0)的统计数据,n的取值越大,压缩比例越高;当1和0不连续的情况出现得越少,那么使用跳n个1(以及另一个注册表中跳n个0)的统计数据,n的取值越小(不排除n=0的情况),压缩比例越高;
    =数据对齐算法=
    如:
    101001000100001000001000000100000001
    101010101010101010101010101010101010
    100110011001100110011001100110011001
    123456789012345678901234567890123456
    第一种标尺:10循环充满
    完全一致:(1,2,3,4,8,12,14,15,16,18,20,21,22,24,26,30,32,34)
    完全单比特求反:(5,6,7,9,10,11,13,17,19,23,25,27,28,29,31,33)
    第二种标尺:1001循环充满
    完全一致:(1,2,7,11,14,18,19,21,22,23,26,27,28,30,31,34,35,36)
    完全单比特求反:(3,4,5,6,8,9,10,12,13,15,16,17,20,24,25,29,32,33)
    第n种标尺:????
    完全单比特一致:(*,*,*……)
    完全双比特一致:(*,*,*……)
    完全多比特一致:(*,*,*……)
    完全单比特求反:(*,*,*……)
    完全双比特求反:(*,*,*……)
    完全多比特求反:(*,*,*……)
    使用的算法越多,那么算法所生成的数据就越多,相应的就可以快速互相校验,从而避免1个比特的篡改导致最终损失1zb其中的900tb数据的极端压缩文件异常灾难;毕竟压缩率越高,就意味着一旦出现了压缩文件缺失以及特定数据不可读取(比如硬件损坏,磁盘坏道,软件权限不足)就会导致最终解压缩所缺失的部分越多;压缩率越高,就要求容错能力和纠错能力越强,比如说,把1zb的数据,压缩成1gb数据,1gb数据中随机有百分之五十的数据不可读取,是否能够通过剩下的百分之五十数据逆推出整个1gb数据内容?从而可以解压缩成原先的压缩前的1zb数据(当然了,容错和纠错就难免会增加试错和穷举的运算量)。
    - 肉肉屋

章节目录

脑回路清奇的主角们所有内容均来自互联网,御宅屋只为原作者纯白色科幻宅的小说进行宣传。欢迎各位书友支持纯白色科幻宅并收藏脑回路清奇的主角们最新章节