如何使用Stable Diffusion修复老照片
使用 Stable Diffusion 修复老照片可以按照以下步骤进行:
插件及模型下载
更新 ControlNet:确保 ControlNet 更新到最新版本,以使用 “Recolor” 模型。
下载 “StableSR” 脚本:在 Stable Diffusion 的 “扩展”-“可下载” 中搜索关键词 “StableSR” 进行安装,也可通过其Github 链接下载安装包。同时需下载三个相关模型,包括 “StabilityAI” 的官方大模型、“VAE” 模型和 “StableSR” 脚本模型,并分别放入相应文件夹。
安装 “Multidiffusion” 插件:在 “扩展”-“可下载” 中搜索关键词 “Tiled diffusion” 进行安装。
照片修复
上传照片并设置 ControlNet:打开 Stable Diffusion,在 “ControlNet Unit 0” 上传黑白老照片,启用 ControlNet 并勾选 “完美像素模式”。控制类型选择 “Recolor”,预处理器选择 “recolor_luminance”。接着在 “ControlNet Unit 1” 再次上传同一张照片,启用 ControlNet 和 “完美像素模式”,控制类型选择 “Depth”,预处理器选择 “depth_zoe”。
选择模型与设置提示词:选择一个人物写实模型,在正向提示词中输入关于照片内容的描述,如人物的穿着、发型等,反向提示词可设置通用的,也可以不写。
设置生成参数:根据需求设置生成参数,注意尺寸应设为与照片相同的比例,然后点击 “生成”。此时生成的彩色照片可能仍有模糊的情况。
细节优化
初步优化:点击 “后期处理”,上传刚刚生成的彩色照片,将 “缩放比例” 调为 “1”,“GFPGAN 可见程度” 调为 “1”,点击 “生成”,此时脸部会变清晰,但其他地方可能仍模糊。
进一步高清处理:将图片发送到 “图生图”,选择 “v2-1_768-ema-pruned.ckpt” 大模型和 “vqgan_cfw_00011_vae_only.ckpt”VAE 模型,正向提示词和反向提示词可以不写。设置生成参数,与文生图参数保持一致。启用 “Tiled Diffusion” 以及 “Tiled VAE”,将 “放大倍数” 改为 “1”,勾选 “启用噪声反转”。选择 “StableSR” 脚本,在 “SR 模型” 中选择 “webui_768v_139.ckpt” 模型,“放大倍数” 设为 “2”,勾选 “纯噪声”,最后点击 “生成”,照片将变得更清晰高清。