1
回答
奇葩的commons-compress-1.6-bin.zip的浏览器下载,占用超大内存让电脑慢的疯狂
利用AWS快速构建适用于生产的无服务器应用程序,免费试用12个月>>>   

      昨天和今天是要Chrome、IE下载Apache Common Compress官网的文件commons-compress-1.6-bin.zip,下载到99%的时候都停止不动了,然后一小会电脑变得狂慢,打开什么程序都狂慢,不得已重启机器若干次,并且文件还下载不下来。

      不甘心,刚才使用迅雷下载了这个文件,下载完成,一切ok,然后使用Nod32扫描这个文件,见下图:从下载完成的10:03开始扫描,10:23还没结束,8.27M的文件,看扫描日志,竟然提示文件受密码保护,还有压缩文件已损坏!

       然后,我停掉扫描,解压缩测试,没问题。

       然后,清空文件夹C:\Windows\Temp(默认临时目录),此时状态:

        

        随后,再次使用Nod32扫描(电脑只做两件事:Chrome两个标签页、Nod32扫描),十分钟后状态(此时第二次扫描仍然在扫描):

        

        关闭扫描,结束测试,结束贴子。发完贴子重启机器。


        哪位仁兄有时间也测试下看看呢。

        然后,这个究竟是什么情况。


举报
bs2004
发帖于4年前 1回/343阅
共有1个答案 最后回答: 4年前

文件头里会有文件长度信息,这个信息可以改(各种主动或被动的原因),如果实际只有几M,但被改成几G,自然就会把其它文件的数据区当作它的继续处理。

而专门的压缩文件,因为还有一层对压缩内容的管理,所以可以知道文件的正确长度。但正常被解压出来的文件里面的文件头不正常,所以直接对这个解压完的文件操作就可能不正常(主要是看进行什么操作,如果是一些只对文件前面内容操作的,不会有问题,如果是要全部扫描的,就会不正常了)。

有两种方法处理你这个问题:

1.根据压缩文件的信息,改写解压之后的文件头里的文件长度。这个需要你了解一些PE文件头格式知识。

2.很简单,到另外一个地方,更换网络和电脑重新下载。因为很多时候也可能是由于网络不稳定或者干扰而发生类似问题。比如说,我就能正常下载它。

--- 共有 1 条评论 ---
bs2004你说的我大概懂了:解压缩一层没问题(是因为没有对压缩包内有问题的文件进行深层扫描或深层操作)。我改天换个电脑再测试下看看。多谢仁兄解答! 4年前 回复
顶部