大家好,这里是和你们一起探索AI花生。
一、人物面部增强
修复老照片时,最重要部分就是人脸的处理,一定要完整清晰,所以我们首先要做的就是强化人物的面部特征,这一步可以使用SDWebUI「后期处理」中的GFPGAN或CodeFormer来完成,它们是专门处理面部特征的模型,可以将模糊的人脸变得清晰。
此处我使用的是CodeFormer模型,因为它的视觉效果会更舒适一些。权重建议在0.2-0.5之间调整,这样既可以保持与原图面部特征相似,也能一定程度上修复模糊和破损;权重值过高会导致五官发生明显变化。
二、破损瑕疵修复
在得到清晰的面部细节之后,我们就可以进一步对照片的破损进行修复。
下图是用完全用内容识别工具处理的,修复了大部分非常明显的裂痕,图像质量等到了很明显的改善。
三、上色
在SDWebUI中,Controlnet的Recolor模型会基于黑白照片的亮度(luminance)或强度(intensity),对画面进行上色处理,效果比很多自动上色的工具好。具体操作如下:
①进入文生图版块,启用controlnet,勾选完美像素、允许预览选项;
②选择recolor预处理器与控制模型,然后上传上一步修复好的模型;
③设置生成参数。因为是处理摄影照片,所以要选择写实类的大模型,比如realisticVision,其他参考信息如下:
如果想自己控制上色效果,可以在提示词中指定物体的颜色,比如黄色的裙子、棕色的大衣等,可以在一定程度上影响上色效果,或者在图生图的「涂鸦重绘」中,用带颜色的画笔涂抹指定区域,配合controlnet的recolor模型,引导AI生成对应颜色的内容。
四、高清放大
在基础的修复、上色完成后,我们就可以对处理后的照片进行高清放大。
①如果只是将图像放大到2K的水平,不追求高清细节,可以直接使用「后期处理」的放大功能。里面支持两种算法结合使用,我们可以选择4x-UltraSharp或R-ESRGAN4x+做为主算法,提升画面的清晰度;然后用Lanczos或Nearest做为辅助算法,保留画面原有的质感。
②如果是要图像放大到4K水平,可以使用TiledDiffusion搭配ControlnetTile模型处理,具体操作如下:
1)进入图生图版块,大模型、提示词、生成参数等设置都可以与前面文本图里的保持一致;
2)上传需要放大的图像,填写图像尺寸,重绘幅度推荐0.3-0.5之间,过高会导致画面细节变形;
3)启用tileddiffusion插件,放大算法选4x-UltraSharp或R-ESRGAN4x+;选择放大倍数,一般是2-4倍。
4)直接启用controlnet,选择tile模型,勾选完美像素模式,然后点击生成,等待图像放大。
5)如果你在使用此方法放大图像时,出现了outofmemory爆显存的情况,可以再启用TileVAE选项,可以有效降低显存的占用率。
与后期处理放大相比,Tiled放大法会对整个画面进行重绘,让原本模糊的细节也变得清晰锐利。所以即使同样是放大2倍,Tile处理后的图像会更高清逼真。
以上就是一个最基础的黑白照片修复、上色、高清方法工作流,处理顺序并不是定死的,重点是让大家明白不同的功能带来的不同效果。实际操作中,我们可以结合实际情况修改调整顺序。
SDWebUI目前并不能独立完成所有修图任务,所以一定要结合Ps等其他图像处理工具灵活处理。除了修复破损,Ps的调色以及蒙版功能也非常有帮助。
比如你的照片中人物很多,一次性修复效果不佳,就可以分别截取人脸,单独用AI修复好之后再用Ps合成到一起;或者上色的过程中,不同物体间容易串色,就可以一次只指定一个颜色,生成多张图像,然后再用Ps合成在一起,这样效率反而比抽卡高,效果也会更精致。