96SEO 2026-05-06 12:15 0
说真的,日常开发里经常会碰到「这几个源码到底占了多少磁盘?」、「某个压缩包里到底藏了哪些大文件?」这种尴尬场景。光靠资源管理器点点鼠标根本不够精确,也不利于后续分析。别慌,用几行 Python 代码,你就Neng把这些信息抓出来甚至还Neng一键导出成 CSV 或 Excel,省时又省力。

从需求上来kan,这篇文章要帮你实现以下几个目标:
递归遍历普通目录,收集每个文件的绝对路径和字节大小。
识别并打开常见压缩格式,把内部文件同样列出来。
支持按后缀过滤,或者一次性显示所有文件。
把结果导出为 CSV 或 Excel,让同事也Neng一眼kan懂。
听起来像是「大工程」,但其实核心只有两块:遍历+获取大小 和 结果输出。下面我们一步步拆解。
为什么不直接用系统自带工具?Windows 的「属性」只Neng给出总容量;Linux 的du -sh *虽然好用,却只Neng算目录层级的总和,想拿到每个子文件的具体路径就得再配合find -ls。而且跨平台脚本往往要写好几套命令,这对团队协作极不友好。Python 天生跨平台,一次写完大家douNeng跑。
import os
import zipfile
import tempfile
import shutil
def is_archive:
return p.lower.endswith)
def get_size:
try:
return os.path.getsize
except OSError:
return 0
def walk_dir:
"""遍历普通目录"""
for dirpath, _, filenames in os.walk:
for fn in filenames:
if not show_all and exts and not fn.lower.endswith):
continue
full = os.path.join
yield full, get_size
def walk_zip:
"""读取 zip 包内部结构"""
with zipfile.ZipFile as z:
for name in z.namelist:
if name.endswith: # 跳过目录条目
continue
if not show_all and exts and not name.lower.endswith):
continue
info = z.getinfo
yield f"{zip_path}!{name}", info.file_size
def walk_any:
"""统一入口:普通目录 / 压缩包 / 压缩包内部子路径"""
if os.path.isdir:
return walk_dir
elif os.path.isfile and is_archive:
return walk_zip
else:
raise ValueError
代码亮点:
统一返回的是 的 generator,既Ke以直接迭代,也Neng一次性转成 list。
对压缩包内部的路径我们用了「!」Zuo分隔符,这样在后期导出时一眼就Neng辨认来源。
过滤逻辑只在必要时才执行,保持遍历速度。
三、实战演示:一步到位搞定全家桶需求 1️⃣ 基础用法——列出当前目录下所有 *.py 文件及其大小for p,s in walk_any('.',
exts=,
show_all=False):
print
运行后你会kan到类似:
1245 bytes ./utils/helpers.py 3421 bytes ./app/main.py ...2️⃣ 高级玩法——一次性扫完项目根目录并导出 Excel 表格
import csv
from openpyxl import Workbook
def export:
rows = list
if out_path.lower.endswith:
with open as f:
w = csv.writer
w.writerow','Path'])
w.writerows
else: # 默认走 xlsx
wb = Workbook
ws = wb.active
ws.append','Path'])
for r in rows:
ws.append
wb.save
# 示例:扫描整个项目并保存为 result.xlsx
export(walk_any('C:/my_project',
exts=None,
show_all=True),
'result.xlsx')
Excel 打开后你会发现第一列是数字、第二列是完整路径,甚至还Neng直接在表格里筛选「*.java」之类的后缀。
3️⃣ 把压缩包也拉进来——扫描一个 .zip 并只保留 .class 与 .jar 文件for p,s in walk_any('libs/sample.zip',
exts=,
show_all=False):
print
输出示例:
54234 bytes libs/sample.zip!com/example/App.class 108921 bytes libs/sample.zip!lib/util.jar ...四、进阶技巧与常见坑点
#1 防止 UnicodeDecodeError:
当你尝试读取非 UTF‑8 编码的压缩包时ZippedFile.namelist 有可Neng抛异常。Zui稳妥的办法是使用 .decode 把乱码字符剔除掉,再Zuo匹配。
#2 大文件溢出: Ru果要统计 TB 级别的数据,请务必把结果写入磁盘而不是一次性放进内存,否则 Python 会直接崩掉。Ke以把 generator 按批写入 CSV,每次只处理几千行。
#3 多层嵌套压缩包:
本脚本默认只展开第一层。Ru果业务上真的需要递归解压,Ke以在 walk_zip 内部调用 walk_any, 再配合临时目录清理即可。但请注意磁盘空间占用和安全风险。
#4 跨平台路径分隔符: 我们在拼接内部路径时用了「!」Zuo分隔符,这样无论 Windows 用反斜杠还是 Linux 用正斜杠,dou不会冲突。Ru果你想在 UI 上展示,可自行替换回系统默认分隔符。
#5 性Neng小窍门:
Ru果只关心特定后缀,在遍历前把
名集合转成小写元组 ) Neng让判断快上约30%。再者,把临时解压目录提前创建好() 并在 finally 块里统一清理,也Neng避免残留垃圾文件。
A:只要把 generator 的每条记录插入 SQL(如 SQLite 的 "INSERT INTO files VALUES") 即可。因为我们的函数返回的是标准元组,所以兼容任何 DB‑API 接口。
A:当然Ke以用循环包装一下就行。例如:
roots =
all_rows =
for r in roots:
all_rows.extend))
# 然后统一 export
* 想让脚本支持 .rar 或 .7z,需要额外安装什么库?
A:对于 .7z 推荐使用; 对于 .rar Ke以考虑unrar‑toolkit”。记得在代码中加入相应的分支判断即可。
六、收尾——别让数据埋没在硬盘深处kan完这篇文章,你应该Yi经掌握了「Python 一键统计任意目录或压缩包中文件大小与完整位置」的全部技巧。从Zui基础的单纯遍历,到高级的过滤导出,再到解决实际工作中遇到的小坑,这套思路足够灵活,Ke以随意拼装成自己的工具链。
温馨提醒:脚本涉及读写磁盘,请务必先在测试环境跑一遍,确认没有误删或泄露敏感信息。Ru果你有geng炫酷的需求,欢迎留言交流,我会抽时间补充示例代码!祝大家玩转 Python,告别手动点点鼠标的时代 🚀.
© 2026 Python技术社区 | 本文基于原创内容创作,仅供学习交流。如需转载,请注明出处。作为专业的SEO优化服务提供商,我们致力于通过科学、系统的搜索引擎优化策略,帮助企业在百度、Google等搜索引擎中获得更高的排名和流量。我们的服务涵盖网站结构优化、内容优化、技术SEO和链接建设等多个维度。
| 服务项目 | 基础套餐 | 标准套餐 | 高级定制 |
|---|---|---|---|
| 关键词优化数量 | 10-20个核心词 | 30-50个核心词+长尾词 | 80-150个全方位覆盖 |
| 内容优化 | 基础页面优化 | 全站内容优化+每月5篇原创 | 个性化内容策略+每月15篇原创 |
| 技术SEO | 基本技术检查 | 全面技术优化+移动适配 | 深度技术重构+性能优化 |
| 外链建设 | 每月5-10条 | 每月20-30条高质量外链 | 每月50+条多渠道外链 |
| 数据报告 | 月度基础报告 | 双周详细报告+分析 | 每周深度报告+策略调整 |
| 效果保障 | 3-6个月见效 | 2-4个月见效 | 1-3个月快速见效 |
我们的SEO优化服务遵循科学严谨的流程,确保每一步都基于数据分析和行业最佳实践:
全面检测网站技术问题、内容质量、竞争对手情况,制定个性化优化方案。
基于用户搜索意图和商业目标,制定全面的关键词矩阵和布局策略。
解决网站技术问题,优化网站结构,提升页面速度和移动端体验。
创作高质量原创内容,优化现有页面,建立内容更新机制。
获取高质量外部链接,建立品牌在线影响力,提升网站权威度。
持续监控排名、流量和转化数据,根据效果调整优化策略。
基于我们服务的客户数据统计,平均优化效果如下:
我们坚信,真正的SEO优化不仅仅是追求排名,而是通过提供优质内容、优化用户体验、建立网站权威,最终实现可持续的业务增长。我们的目标是与客户建立长期合作关系,共同成长。
Demand feedback