[tips]comfyui有没有优化速度的启动参数?

剑心のAigc手记2023(已完结)eva剑心2023-8-20 15:13

我们在使用webui的时候,会接触到各种启动参数,例如--autolaunch --xformers --medvram (启动完用默认浏览器打开,使用xformer,使用中度显存优化),那我们comfyui里是否也会有这些启动参数呢?答案当然是肯定的。那这些命令行分别是什么?官方没有文档。

但我们可以用一下方法获取

进入comfyui目录,右键 “在终端中打开” 输入

python main.py -h

就可以查看所有命令。

具体使用方法,我之前文章有说过,建一个txt文档,输入

@echo off
python main.py --auto-launch --listen

另存为 run.bat (run可改成任意名称)。之后你点击这个批处理启动就可以。

这里面的--参数可以自己根据需求添加。

以下是启动参数介绍,这里我做一下中文解释,并把一些常用的标粗, comfyui默认启用xformers,性能不够时也会尝试使用lowvram,和tile vae帮你完成任务。对低性能机器比较友好。

--listen [IP]

指定要侦听的 IP 地址。只输入--listen 就监听所有ip,这个参数可以让你局域网的其他设备访问。具体参见这篇文章

--auto-launch

在默认浏览器中自动启动ComfyUI。

--highvram

默认情况下模型在使用后会卸载到CPU内存。这个选项将它们保存在 GPU 显存中

--normalvram

如果 lowvram 自动启用,则会强制使用正常显存模式

--lowvram

强制将unet分成几部分以使用更少的vram完成任务。这里不建议强制添加参数,默认comfyui会在你性能不行时自动启用,交给系统去判断会更优

--port PORT

设置监听端口。

--extra-model-paths-config PATH [PATH ...]

加载一个或多个extra_model_paths.yaml 文件。

--output-directory OUTPUT_DIRECTORY

设置 ComfyUI 输出目录。OUTPUT_DIRECTORY 替换为你的输出目录

--cuda-device DEVICE_ID

设置此实例将使用的 cuda 设备的 ID。

--cuda-malloc

启用 cudaMallocAsync(默认启用torch 2.0 及更高版本)。

--disable-cuda-malloc

禁用 cudaMallocAsync。

--dont-upcast-attention

禁用upcast-attention。可以提高速度,但会增加出现黑色图像的机会。

--force-fp32

强制用 fp32 (如果你显卡很好)。

--force-fp16

强制 fp16。

--fp16-vae

在 fp16 中运行 VAE,可能会导致黑色图像。

--bf16-vae

在 bf16 中运行 VAE,可能会降低质量。

--directml [DIRECTML_DEVICE]

使用 torch-directml。

--preview-method [none,auto,latent2rgb,taesd]

采样器节点的默认预览方法。

--use-split-cross-attention

使用split-cross-attention 优化。使用 xformers 时忽略。

--use-quad-cross-attention

使用次quad-cross-attention优化。使用 xformers 时忽略。

--use-pytorch-cross-attention

使用新的 pytorch 2.0 交叉注意力功能。

--disable-xformers

禁用 xformers。

--gpu-only

在显卡GPU 上存储并运行所有内容(文本编码器/CLIP 模型等)。

--novram

当 lowvram 不够时。那我建议你换台机器吧。

--cpu

使用 CPU 处理所有事情(慢)。

--dont-print-server

不打印服务器输出。

--quick-test-for-ci

CI 快速测试。

--windows-standalone-build 独立环境构建使用参数,官方便携版(类似整合包,自带独立运行环境)就会用到这个参数。

--disable-metadata

禁止在图片文件中保存提示词数据。