多进程并发追加写入同一文件的核心风险是数据错乱、覆盖或丢失,根本原因在于未同步的write()调用破坏文件末尾一致性;解决关键在于确保每次追加操作原子且可串行化。
多进程并发追加写入同一个文件时,核心风险是数据错乱、覆盖或丢失,根本原因是多个进程同时调用 write()(尤其是未对齐的偏移写入)可能破坏文件末尾一致性。解决的关键不在于“谁先写”,而在于确保“每次追加操作原子、可串行化”。以下是几种主流方案的对比分析,聚焦实用性、跨平台性与工程落地成本。

在每次写入前对文件加独占锁,写完释放。Linux/macOS 常用 flock(),Windows 可用 msvcrt.locking() 或第三方库模拟。
os.open(..., os.O_RDWR) 获取文件描述符后调用 fcntl.flock(fd, fcntl.LOCK_EX),不能对 open() 返回的 file object 直接锁所有工作进程通过管道、Unix socket 或消息队列(如 ZeroMQ、Redis Pub/Sub)将日志发送给一个专用写入进程,由该进程顺序落盘。
multiprocessing.Queue(注意其底层基于 pipe,在同一父进程 spawn 下安全);生产环境推荐用 syslog-ng 或 rsyslog 接收 UDP/TCP 日志,再转存文件所有进程以 O_APPEND 标志打开文件(Python 中 open(..., 'a') 默认启用),且每次 write() 写入内容 ≤ 4KB(POSIX 保证该尺寸内追加原子)。
getconf PIPE_BUF / 查看系统值;Python 中可用 os.statvfs('/').f_namemax 辅助判断,但核心看 PIPE_BUF
各进程写入独立临时文件(如 log_12345.tmp),完成后调用 os.replace()(原子)将临时文件追加到主文件末尾(需先读取主文件长度,seek 到末尾再 write,或使用 cat temp >> main shell 方式)。
cat a >> b 在 bash 中本质仍是 flock + append,非真正无锁;多次小写入频繁 rename 效率低实际选型建议:日志类追加首选 O_APPEND + 行级控制(确保单次 write 不超 PIPE_BUF);要求强一致或写入内容不可控时,上 Writer Daemon;已有成熟运维体系(如 Kubernetes)可直接对接 Fluentd / Filebeat 收集;临时脚本或简单工具用 flock 最快落地。