【AI视频】革命性突破!最全无闪烁AI视频制作教程 真正生产力 Stable diffusion + EbSynth + ControlNet

魔都老王Shanghai Lao wong
28 Jun 202309:05

TLDR这个视频教程展示了如何使用Stable Diffusion, EbSynth和ControlNet来制作无闪烁的AI视频。视频详细介绍了从下载软件到设置插件的全过程,包括关键步骤的解释和操作,确保视频生成不仅速度快,而且效果流畅。教程还特别强调了新工具如何帮助解决以往AI视频制作中常见的画面闪烁问题,让整个视频制作过程更加高效和用户友好。

Takeaways

  • 🎬 使用Stable Diffusion生成的视频不再有闪烁问题,与之前相比有显著改进。
  • 🌟 视频生成速度快,不需要长时间等待,如使用4090显卡几十小时的情况。
  • 📂 首先需要下载并解压EbSynth软件,然后安装FFMPEG工具。
  • 📝 在C盘创建Path文件夹并设置环境变量,以确保FFMPEG正常工作。
  • 🔧 安装背景控制插件,通过命令提示符执行安装命令。
  • 🔗 安装Stable Diffusion插件,通过插件网址复制链接进行安装。
  • 🛠️ 在Stable Diffusion中设置Control net为3,启用自动保存和插件控制。
  • 🖼️ 视频制作原理是将视频拆解成帧,提取关键帧,通过图生图重绘,补齐插帧后生成完整视频。
  • 📁 新建文件夹并设置项目路径,上传素材,按照1-8步骤进行操作。
  • 🎭 在图生图阶段,设置正向提示词、反向提示词,选择采样器和步数,进行面部修复和重绘。
  • 🖌️ 使用Control net进行边缘软化和像素匹配,以提高生成图像的质量。
  • 📹 最终通过EbSynth程序处理EBS文件,生成无闪烁的视频,并可选择是否带背景音乐。

Q & A

  • 视频中提到的Stable Diffusion是什么?

    -Stable Diffusion是一种AI视频生成技术,它能够基于单帧图像生成视频,但传统的Stable Diffusion在生成视频时存在画面闪烁的问题。

  • 视频制作中提到的EbSynth是做什么用的?

    -EbSynth是一个视频编辑工具,用于改善视频质量,特别是在减少视频闪烁和提高视频流畅性方面。

  • 如何安装并使用EbSynth?

    -首先访问EbSynth的网站下载文件,并输入邮箱进行验证。下载完成后解压,然后安装FFMPEG并配置环境变量,之后就可以开始使用EbSynth进行视频编辑。

  • ControlNet在视频中提到了什么作用?

    -ControlNet是Stable Diffusion的一个插件,它允许更精细的控制视频生成过程,比如设置多重控制网和允许自动保存检测结果图像等。

  • 视频中提到的isnet_Pro是做什么的?

    -isnet_Pro是一个可以控制背景以减少视频闪烁的工具,它被用来改善早期Stable Diffusion生成视频的闪烁问题。

  • 如何使用Stable Diffusion插件来生成无闪烁的视频?

    -首先安装Stable Diffusion插件,然后在设置中调整Control net的参数,接着上传素材并按照步骤进行操作,包括设置mask参数、提取关键帧、重绘图像、补齐插帧等,最终生成无闪烁的视频。

  • 为什么早期的Stable Diffusion生成的视频会有闪烁现象?

    -早期的Stable Diffusion是基于一帧一帧合成视频的原理,由于前后帧之间的差异导致画面闪烁。

  • 在Stable Diffusion中,如何设置Control net以减少窗口数量?

    -在Stable Diffusion的设置中,找到Control net的设置,将其设置为1,这样就会减少到一个窗口。

  • 视频中提到的“多重控制网”是什么?

    -多重控制网是ControlNet插件的一个功能,它允许用户设置多个控制网,以实现更精细的视频生成控制。

  • 如何从视频序列帧中提取关键帧?

    -通过设置最小和最大关键帧间隔参数,Stable Diffusion可以自动从视频序列帧中提取关键帧。

  • 在视频中,提到了哪些步骤可以减少视频的闪烁并提高视频质量?

    -减少视频闪烁并提高视频质量的步骤包括:使用EbSynth进行视频编辑,安装并使用Stable Diffusion插件,设置Control net参数,以及通过图生图技术重绘关键帧和补齐插帧。

  • 在视频制作过程中,为什么需要对颜色进行校正?

    -颜色校正是为了确保视频颜色的一致性和准确性,但在某些情况下,如果原始视频的颜色已经很好,可以跳过这一步骤。

Outlines

00:00

🎬 Introduction to Stable Diffusion Video Generation

The speaker begins by greeting the audience and introducing a video generated using stable diffusion, noting significant improvements over previous versions. The past issues with flickering due to frame-by-frame synthesis are addressed, with the speaker mentioning tools like isnet_Pro that helped control the background and reduce flickering. The new video showcased is flicker-free and generated quickly, not requiring excessive processing time. The speaker promises to explain the principles behind this advancement and guides the audience through the step-by-step process of creating such a video, starting with accessing the ebsynth website, downloading and extracting files, and setting up FFMPEG on the system. The process continues with installing background control plugins, configuring the stable diffusion plugin, and adjusting settings for optimal results. The explanation of the plugin's working principle involves breaking down the video into frames, extracting keyframes, redrawing them, and interpolating frames to create a final video.

05:01

📚 Step-by-Step Video Production with Stable Diffusion

The speaker proceeds with the video production process by creating a new folder and setting up the project path. They guide the audience through uploading materials and navigating the eight-step process. The steps include setting parameters for mask application, extracting keyframes with adjustable intervals, and generating images. The process involves using tools like Control net for image enhancement, setting specific parameters for redrawing keyframes, and generating a sequence of images. The speaker also discusses generating images with Control net, selecting the best ones, and using seeds for consistency. Skipping color correction due to satisfactory results, they move on to modifying dimensions, generating EBS files, and using the initial program to compile the sequence into a video. The final step involves synthesizing the video files, with options for versions with and without background music. The speaker concludes the tutorial by encouraging the audience to try it out and engage with the content through likes, shares, and comments, and looks forward to the next session.

Mindmap

Keywords

💡Stable Diffusion

Stable Diffusion是一种人工智能图像生成模型,它可以根据给定的文本描述生成高质量的图像。在视频中,Stable Diffusion被用于生成视频,解决了以往视频生成中画面闪烁的问题,因为它能够基于一帧一帧的图像合成,生成连贯且无闪烁的视频内容。

💡EbSynth

EbSynth是一个视频编辑工具,用于视频的稳定和插帧处理。在视频中,EbSynth被用来提高视频的流畅度,通过插帧技术减少视频的闪烁,使得最终生成的视频更加平滑自然。

💡ControlNet

ControlNet是Stable Diffusion的一个插件,它允许用户对视频生成过程进行更精细的控制。视频中提到,通过ControlNet的设置,可以改变视频生成中的多重控制网数量,从而影响视频的生成效果。

💡FFMPEG

FFMPEG是一个开源的多媒体框架,能够处理视频和音频数据。在视频中,FFMPEG被用来处理视频文件,是制作无闪烁AI视频过程中不可或缺的工具之一。

💡关键帧

关键帧是视频或动画中用于定义动作或变化的起始点和结束点的帧。在视频中,关键帧被用来从视频序列中提取重要的图像,这些图像随后会通过Stable Diffusion进行重绘,以生成新的视频内容。

💡插帧

插帧是一种视频处理技术,用于在原有视频帧之间插入新的帧,以提高视频的帧率,使视频播放更加流畅。视频中提到,通过插帧技术可以减少视频的闪烁现象,提升视频质量。

💡遮罩蒙版

遮罩蒙版是一种图像处理技术,用于隐藏或显示图像的特定部分。在视频中,遮罩蒙版被用来处理每一帧图像,以便在生成新视频时能够更精确地控制图像的显示效果。

💡图生图

图生图是指通过人工智能技术,将一张图像转换成另一张具有不同风格或内容的图像。在视频中,图生图技术被用来重绘关键帧,生成与原始视频不同的视觉效果。

💡重绘

重绘是指对现有图像进行再创作或修改,以生成新的图像。视频中,通过Stable Diffusion的图生图功能对关键帧进行重绘,是制作无闪烁视频的关键步骤之一。

💡环境变量

环境变量是计算机操作系统中用来存储有关系统环境的信息的变量。在视频中,提到了设置环境变量以确保FFMPEG工具能够正确运行,这是配置软件环境的重要步骤。

💡插件

插件是一种软件组件,可以添加到现有的程序中以增加或扩展其功能。视频中提到了安装Stable Diffusion的插件,这些插件使得Stable Diffusion能够执行更复杂的视频生成任务。

Highlights

使用stable diffusion生成的视频与以往相比有了革命性突破,解决了画面闪烁的问题。

早期的SD视频生成技术因帧与帧之间的不连贯导致画面闪烁。

通过工具如isnet_Pro可以控制背景,减少视频闪烁。

新视频生成技术不仅无闪烁,且生成速度快,不再需要长时间等待。

视频演示了如何一步步制作无闪烁的AI视频。

介绍了ebsynth网站的使用和FFMPEG的安装方法。

说明了如何通过命令提示符安装背景控制插件。

展示了stable diffusion插件的安装和设置过程。

通过设置Control net和允许自动保存图像等选项来优化视频生成。

解释了视频制作原理,包括提取关键帧和插帧技术。

演示了如何新建文件夹并设置项目路径以准备视频素材。

介绍了视频制作中每一步的具体操作和参数设置。

说明了如何通过图生图技术重绘关键帧并生成中间帧。

展示了如何使用EBS文件和相关程序来合成视频序列。

介绍了最终视频文件的生成,包括带背景音乐和无背景音乐的版本。

整个视频制作流程丝滑流畅,无翻车,易于理解和操作。

鼓励观众尝试制作并分享他们的作品,同时提供评论区进行交流。