我测了12个小时的RunwayGen3,发现这就是AI视频的No.1。

Runway Gen3,在模型质量上,还是能把Luma和可灵拉开一些差距,特别是审美上。虽然也就是70分跟60分的区别,但至少,在模型质量上,确实是我认为的当今No.1。

不过,现在只上了文生视频,图生和那些可控工具还没上。

给我急急急急急急急急急急急急急急急急死了。

在我跟坤哥瞎吉尔一顿跑了快100个case之后,我决定还是偏系统性的测一下,这个系统只是比瞎跑系统一点,肯定比不过南洋理工或者上海人工智能实验室那种专业级别的测试,所以别杠我,杠就是你对= =

测试的构筑方法上,其实我之前想了蛮久的,去年我其实规划过一版测试维度,大类上有语义理解、画面细节质量、运动质量、镜头移动质量、一致性、衰减性等等。

然后比如在运动幅度上,又可以拆为:人脸五官运动质量、人物肢体运动质量、动物运动质量、刚体运动质量、流体运动质量等等。。。

写完以后我就觉得太特么扯淡了,不是这个划分扯淡,是我的人力有点扯淡。真要这么跑一遍,那我就好几天啥事都不用干了。。。

所以现在,为了达到成本与效率最优解,我就非常简单粗浅的,按风格去划分,分为:

写实风格、动画风格、科幻风格、玄幻风格、抽象风格。

每个风格里面跑10~15个prompt,每个prompt roll三遍,虽然只有文生视频,但其实也基本能看出来模型整体质量和特征了。

而写prompt这活,当然是交给AI去干了。

毕竟有公式可以套:

Prompt = 镜头语言+光影+主体描述+主体运动+场景+氛围。

然后我就让GPT根据公式和规则,给我哐哐哐的写了几吨的prompt。

我测了12个小时的RunwayGen3,发现这就是AI视频的No.1。

再把这些prompt,扔到gen3里面跑case。

我测了12个小时的RunwayGen3,发现这就是AI视频的No.1。

目前只能用文生视频,其他的功能都还没上。在最下面可以切换生成视频的片段长度,可选5s和10s两种。

生成速度非常的快,亲测10s的基本也就1分半就能跑出来,这个可比Luma好多了,那玩意动不动十几分钟。。。

所有的case,我也都放到飞书文档里,有兴趣想全看一遍的,对着我公众号关注后在后台私信"gen3"就能拿到链接了。

我测了12个小时的RunwayGen3,发现这就是AI视频的No.1。

而文章碍于篇幅,我就每个风格,展示5个有代表性的case,让大家一睹为快。

(注:在gen3中生成视频我使用的都是英文,下面的是为了方便大家看所以所有prompt才都翻译成了中文)

一.写实风格
写实风格测试的东西很简单,主要就是看现实城市街景、自然风光、室内场景等,也看看人物的面部表情、光影效果、细节纹理等。
核心还是现实世界的写实。
1. 特写镜头,温暖的晚霞,一位长发飘逸、面带温柔微笑的年轻