很久以前,就想做一段自己的AI视频。

直到前段时间的《芭比海默》,给了我很大的启发。

MidJourney+Gen2的流程,终于可以实现我的想法了。


【资料图】

于是。

我花了5个晚上,用MidJourney生成了693张图,用Gen2生成了185个镜头,最后选出来了60个镜头,剪辑成了我最喜欢的。

《流浪地球3》的预告片。

工作流程其实很简单。

MidJourney生图,Gen2生成4秒的视频。

以下是我用MidJourney生成的部分分镜图。

这些图片,为了分镜风格一致,所以我固定好了后缀提示词。这块部分词组有借鉴《创世纪》。

____ , not central composition, Science fiction movie: The Wandering Earth, in the style of detailed crowd scenes, hard sci-fi style, futuristic incredible scene, very imaginative, indoor scenes, movie scene, dynamic shot, low saturation, light white and teal,extreme detail, 8K --ar 21:9 --v 5.2

在前缀空白处描写场景或人物或镜头,后缀一致,这样可以保证画面风格的统一。

扔到Gen2里生成视频反而是最简单的一步。

直接把图片上传,生成。

不要写任何提示词,只要写任何一句话,基本都会面目全非。

说实话Gen2现在的稳定性还是一般,roll了180多个镜头,4秒全能用的一共只有2个。其他的基本都只能用前1~2秒。

但是对于剪辑至少是够了。

而且我也遇到了跟《创世纪》作者同样的问题。

用Gen2生成人脸视频的时候,一定不要开增强Upscale,要不然面部会变动巨大。生成场景的时候,开增强Upscale效果会更好。

剩下的也没啥技术含量了,roll就行了,最后挑选镜头,按心中的故事或主题剪辑。

话说本来我是自己手绘了50个左右的分镜线稿,还写好了故事线,埋了彩蛋,结果发现AI根本不会按我的预期效果去弄。

最后管他呢,量大管饱,生成几百个镜头,总能拼的。

这次《流浪地球3》预告片的工作流,对我来说是个很有意思的实验。

以前自己做视频,Blender建模渲染,1个多月的时间,现在下班后的5个晚上就搞定。

AI,真的是效率革命。

不知道Gen4的时候,会有什么样的光景。

推荐内容