每次打开必卡死吗?这个问题会反馈给文管。
按照我在win那边的体验来说,搞不好win那边也会卡死2333
上万文件的目录,估计windows也扛不住。
但是Windows扛不住不是linux扛不住的理由。
当系统发现一个目录下文件大于一个数值时,不要试图一次处理过多的文件,最好在后台分成几组处理。因为屏幕大小的限制,用户也不可能一次看到所有的文件,所以可以先显示第一组文件,其他文件在后台慢慢处理。当用户拖动显示条时,再依次显示第二组第三组文件。只要衔接的足够好,用户看到的文件显示就是流畅的。
上万文件的目录,估计windows也扛不住。
但是Windows扛不住不是linux扛不住的理由。
当系统发现一个目录下文件大于一个数值时,不要试图一次处理过多的文件,最好在后台分成几组处理。因为屏幕大小的限制,用户也不可能一次看到所有的文件,所以可以先显示第一组文件,其他文件在后台慢慢处理。当用户拖动显示条时,再依次显示第二组第三组文件。只要衔接的足够好,用户看到的文件显示就是流畅的。
但是还没有加载到的文件,文件没显示完,用户就不会看到想要的排序了。
但是还没有加载到的文件,文件没显示完,用户就不会看到想要的排序了。
实际上优化技术是可以实现的。
在电脑内存还没这么大的年代,读取一个较大的文件时就是分块读取,如今内存大了程序员也懒了,直接把一个较大的文件读取到内存。
目录也是文件。
我无语了,这文件体量太大
商店里的doublecmd文件管理器很好用,Windows里也在用,可以方便的扩展
每次打开必卡死吗?这个问题会反馈给文管。
我尝试了几次,都是要卡着的,文件管理器处于无响应状态。
windows11 打开类似有2w+文件的目录,是秒开的,crtl+A 也是秒响应。
场景很简单,应该很容易复现比对。
两台电脑配置相似,如下:
处理器 Intel(R) Core(TM) i7-4790 CPU @ 3.60GHz 3.60 GHz
RAM 32.0 GB (31.9 GB 可用)
上万文件的目录,估计windows也扛不住。
但是Windows扛不住不是linux扛不住的理由。
当系统发现一个目录下文件大于一个数值时,不要试图一次处理过多的文件,最好在后台分成几组处理。因为屏幕大小的限制,用户也不可能一次看到所有的文件,所以可以先显示第一组文件,其他文件在后台慢慢处理。当用户拖动显示条时,再依次显示第二组第三组文件。只要衔接的足够好,用户看到的文件显示就是流畅的。
windows11 打开类似有2w+文件的目录,是秒开的,crtl+A 也是秒响应。
真有这个大的文件与目录,建议提升硬件的性能参数,比如核心数量,内存的体积,CPU的量。
估计系统的设计者没考虑过这种情况吧。
服务器比较合适。
你文管什么版本,我试了v23的文管打开1w的文件目录秒开啊
这几次内测都没修这问题吗
我看到github仓库提交好好几个关于修掉这个问题的commit
你文管什么版本,我试了v23的文管打开1w的文件目录秒开啊
版本6.0.40
可能跟硬件有关系,
处理器 Intel(R) Core(TM) i7-4790 CPU @ 3.60GHz 3.60 GHz
RAM 32.0 GB (31.9 GB 可用)
我这个cpu和硬盘内存都差不多是10年前的配置了
但是我这还有台win11电脑,也是这个配置,2w+的文件是秒开的,这么一对比deepin的文管性能还是差点意思
这几次内测都没修这问题吗
我看到github仓库提交好好几个关于修掉这个问题的commit
可能要用性能差点的电脑会有这个问题
这几次内测都没修这问题吗
我看到github仓库提交好好几个关于修掉这个问题的commit
不知道解决的怎么样了,
最近换了台电脑(配置附图),性能比之前的好上不少,还是同样的卡死,
这个问题应该很好复现,就是往目录里面随即写上万文件,写一会再去打开看看。
10年前的配置,windows 秒开